Contactez-nous
Définition du parallélisme
Introduction au parallélisme et aux architectures parallèles
H1088 v1 Archive

Définition du parallélisme
Introduction au parallélisme et aux architectures parallèles

Auteur(s) : Franck CAPPELLO, Jean-Paul SANSONNET

Date de publication : 10 août 1999

Logo Techniques de l'Ingenieur Cet article est réservé aux abonnés
Pour explorer cet article plus en profondeur Consulter l'extrait gratuit

Déjà abonné ?

Présentation

1 - Motivations pour le parallélisme

2 - Définition du parallélisme

3 - Sources du parallélisme et opérations fondamentales

  • 3.1 - Parallélisme de données
  • 3.2 - Parallélisme de contrôle
  • 3.3 - Opérations fondamentales du parallélisme

4 - Organisation des architectures parallèles

5 - Programmation des architectures parallèles

  • 5.1 - Modèle data-parallèle
  • 5.2 - Modèle concurrent à mémoire partagée
  • 5.3 - Modèle concurrent à passage de messages
  • 5.4 - Modèle multiflots (multi-thread )

6 - Lois, modèles et métriques des performances des architectures parallèles

Sommaire

Présentation

Auteur(s)

  • Franck CAPPELLO : Chargé de recherche au CNRS - Laboratoire de recherche en informatique LRI - Université Paris Sud, Orsay

  • Jean-Paul SANSONNET : Directeur de recherche au CNRS - Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur LIMSI - Université Paris Sud, Orsay

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

INTRODUCTION

L’architecture des ordinateurs, qu’il s’agisse de microprocesseurs ou de supercalculateurs, est fortement influencée par l’exploitation d’une propriété fondamentale des applications : le parallélisme. Un grand nombre d’architectures présentes dans les sites informatiques sont parallèles. Ce type d’architecture touche une large gamme de machines depuis les PC biprocesseurs jusqu’aux supercalculateurs. Aujourd’hui, la plupart des serveurs sont des machines parallèles (des multiprocesseurs).

L’objectif de notre exposé est d’introduire la notion de parallélisme, de discuter la nécessité de l’exploiter pour atteindre de hautes performances et de présenter les différentes formes d’architectures d’ordinateurs parallèles.

Tout au cours de notre étude, nous évoquons plusieurs domaines d’applications pour lesquels l’exploitation du parallélisme est fondamentale : le traitement numérique, les bases de données, le traitement d’images, la comparaison de séquences ADN, etc. Pour traiter ces applications, les architectures parallèles peuvent être généralistes (c’est-à-dire capables de répondre aux besoins d’une grande diversité d’applications) ou spécialisées. Les architectures spécialisées sont destinées à exploiter les caractéristiques spécifiques d’une catégorie d’applications ou même d’une seule application. Nous présentons ces deux types d’architectures parallèles.

Bien souvent, il faut avoir recours à une conception et à un développement parallèle de l’application pour exploiter le parallélisme de façon intéressante. Les langages de programmation parallèles sont une composante essentielle dans la chaîne de conception d’une application. Nous présentons les principaux.

Enfin, l’intérêt des architectures parallèles réside dans les performances qu’elles permettent d’atteindre. Nous examinons donc les métriques utilisés pour rendre compte des performances et les grandes lois qui les gouvernent.

Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 94 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


VERSIONS

Il existe d'autres versions de cet article :

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v1-h1088

Article inclus dans l'offre

"Technologies logicielles Architectures des systèmes"

(234 articles)

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques.

Des contenus enrichis

Quiz, médias, tableaux, formules, vidéos, etc.

Des modules pratiques

Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

Des avantages inclus

Un ensemble de services exclusifs en complément des ressources.

Voir l'offre

2. Définition du parallélisme

2.1 Approche intuitive du parallélisme

C’est le parallélisme présent dans une application qui permet d’exécuter simultanément, par des ressources matérielles différentes, plusieurs parties de cette application.

Exemple

pour introduire la notion de parallélisme, nous allons examiner la boucle suivante :

Pour i de 1 à n

faire A[ i ] <- B[ i ] + C [ i ]

FinPour

Le corps de cette boucle ne comporte qu’une seule opération. Si cette boucle présente du parallélisme, il faut le chercher entre les itérations. Voici les trois premières itérations :

A[ 1 ] <- B[ 1 ] + C [ 1 ] (a)

A[ 2 ] <- B[ 2 ] + C [ 2 ] (b)

A[ 3 ] <- B[ 3 ] + C [ 3 ] (c)

La sémantique introduite par le programmeur indique les résultats attendus en mémoire après l’exécution de la boucle. Quel que soit l’ordre d’exécution ex : a, b, c ou c, b, a, ou encore b, c, a, etc. les résultats en mémoire sont identiques. La sémantique du programme ne dépend pas de l’ordre d’exécution des itérations de cette boucle. En particulier, l’exécution simultanée de ces trois itérations respecte la sémantique. Les itérations de cette boucle peuvent donc être exé-cutées en parallèle.

HAUT DE PAGE

2.2 Définition formelle

Pour étudier la présence de parallélisme dans une application, nous avons besoin d’outils plus formels.

Bernstein [5] a introduit en 1966 un ensemble de conditions permettant d’établir la possibilité d’exécuter plusieurs programmes (processus) en parallèle. Supposons deux programmes : P1 et P2. Supposons que chacun utilise des variables en entrée et produise des résultats en sortie. Nous parlerons des variables d’entrée de P1 et P2 (respectivement E1 et E2) et des variables de sortie de P1 et P2 (respectivement S1 et S2).

Selon Bernstein, les programmes P1 et P2 sont exécutables en parallèle (notation : P1 ││ P2) si et seulement si les conditions suivantes sont respectées :

Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 95 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


Lecture en cours
Définition du parallélisme

Article inclus dans l'offre

"Technologies logicielles Architectures des systèmes"

(234 articles)

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques.

Des contenus enrichis

Quiz, médias, tableaux, formules, vidéos, etc.

Des modules pratiques

Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

Des avantages inclus

Un ensemble de services exclusifs en complément des ressources.

Voir l'offre

Sommaire
Sommaire
Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 93 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


Article inclus dans l'offre

"Technologies logicielles Architectures des systèmes"

(234 articles)

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques.

Des contenus enrichis

Quiz, médias, tableaux, formules, vidéos, etc.

Des modules pratiques

Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

Des avantages inclus

Un ensemble de services exclusifs en complément des ressources.

Voir l'offre

Ressources documentaires

Hiérarchie mémoire : les caches

Entre le ou les processeurs d'un ordinateur et les organes de stockage existe une hiérarchie de ...

Calcul généraliste sur carte graphique - Du rendu au calcul massivement parallèle

Cet article s'intéresse à l'architecture et à la programmation des cartes graphiques dans le but de ...

Introduction à l'architecture des ordinateurs

L'article commence par une brève histoire des machines informatiques et introduit ensuite les principes ...

Processeurs : exécution pipeline des instructions

Cet article présente les caractéristiques essentielles de l'exécution pipeline des instructions dans les ...