Contactez-nous
Évolution markovienne
Chaînes de Markov
AF612 v1 Article de référence

Évolution markovienne
Chaînes de Markov

Auteur(s) : Jean LACROIX

Date de publication : 10 oct. 2008 | Read in English

Logo Techniques de l'Ingenieur Cet article est réservé aux abonnés
Pour explorer cet article plus en profondeur Consulter l'extrait gratuit

Déjà abonné ?

Présentation

1 - Évolution markovienne

  • 1.1 - Matrices de transition
  • 1.2 - Définition des chaînes de Markov
  • 1.3 - Dynamique associée à une fonction de transition
  • 1.4 - Exemples

2 - Classification des chaînes de Markov

  • 2.1 - Récurrence et transience
  • 2.2 - Décomposition en classes irréductibles
  • 2.3 - Récurrence positive et récurrence nulle
  • 2.4 - Quelques outils issus de la théorie du potentiel
  • 2.5 - Étude d'exemples

3 - Comportement asymptotique des chaînes de Markov

  • 3.1 - Théorème ergodique
  • 3.2 - Stabilisation des chaînes de Markov
  • 3.3 - Chaînes de Doeblin
  • 3.4 - Coalescence. Méthode de Propp & Wilson

4 - Applications des chaînes de Markov

  • 4.1 - Algorithme de Hastings-Metropolis
  • 4.2 - Contrôle stochastique
  • 4.3 - Chaînes de Markov cachées

Sommaire

Présentation

RÉSUMÉ

La notion de chaîne a été introduite en 1902 par Andrei Markov dans le but de formaliser des problèmes d'épistémologie et de cryptage. Plus tard, vers 1940-1950, est apparu un formalisme beaucoup mieux adapté, proposant des modes opératoires effectifs s'inspirant de la théorie générale des processus stochastiques et de la théorie du potentiel. Cette présentation est élémentaire et ne nécessite que des connaissances de base en probabilités. Des exemples illustrent la théorie débouchant sur des procédures algorithmiques génériques : algorithmes de recherche de mesures invariantes, de la programmation dynamique et des chaînes de Markov cachées.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

Auteur(s)

INTRODUCTION

La notion de chaîne a été introduite en 1902 par Andrei Markov dans le but de formaliser des problèmes d'épistémologie et de cryptage.

L'espace d'états est alors fini et, durant une longue période, beaucoup d'utilisateurs se sont contentés de manipulations matricielles qui trouvent rapidement leurs limites, même avec les moyens informatiques actuels. Ce n'est que vers les années 1940-1950 qu'est apparu un formalisme beaucoup mieux adapté, proposant des modes opératoires effectifs qui s'inspirent de la théorie générale des processus stochastiques et de la théorie du potentiel. La présentation qui en est faite ici est volontairement élémentaire et ne nécessite que des connaissances de base en probabilités. En effet, l'on se restreint ici à un espace d'états dénombrable et l'on ne fait pas usage de concepts plus élaborés comme les filtrations ou la théorie des martingales. La notion de dépendance markovienne est très intuitive ; par contre, les techniques de calcul demandent plus de dextérité et d'entraînement. C'est pourquoi un grand nombre de preuves et d'exemples sont fournis, pour permettre au lecteur de s'exercer à la manipulation d'outils nouveaux. Quelques preuves sont aussi rédigées pour pallier la lourdeur de certaines présentations, principalement en ce qui concerne celles décrites dans le paragraphe . En ce qui concerne les applications, qui sont extrêmement nombreuses, le choix s'est porté sur quelques exemples qui débouchent sur des procédures algorithmiques génériques, relativement récentes et d'un usage très répandu : algorithmes de recherche de mesures invariantes (Propp-Wilson, Metropolis), de la programmation dynamique (Bellman) et des chaînes de Markov cachées (E.M.).

Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 94 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v1-af612

Article inclus dans l'offre

"Mathématiques"

(170 articles)

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques.

Des contenus enrichis

Quiz, médias, tableaux, formules, vidéos, etc.

Des modules pratiques

Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

Des avantages inclus

Un ensemble de services exclusifs en complément des ressources.

Voir l'offre

1. Évolution markovienne

Pour expliciter la notion d'évolution markovienne à temps discret, l'un des concepts de base est celui d'opérateur de transition, donnant la loi de probabilité de l'état d'un système aléatoire à l'instant (n + 1), compte tenu de son état à l'instant (n). Dans le cas d'un espace d'états dénombrable, cette notion se réduit à celle de matrice de transition que nous commençons par préciser.

1.1 Matrices de transition

Soit E un ensemble dénombrable.

On note E l'ensemble des applications de E dans , E+ l'ensemble des applications de E dans [0, + ∞], et Eb l'ensemble des applications bornées de E dans muni de la norme f=supxE|f(x)| .

De même, on désigne par M l'ensemble des mesures sur E, E étant dénombrable ;...

Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 94 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


Lecture en cours
Évolution markovienne

Article inclus dans l'offre

"Mathématiques"

(170 articles)

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques.

Des contenus enrichis

Quiz, médias, tableaux, formules, vidéos, etc.

Des modules pratiques

Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

Des avantages inclus

Un ensemble de services exclusifs en complément des ressources.

Voir l'offre

Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - BREMAUD (P.) -   Chaînes de Markov  -  Springer-verlag, New-York (2001).

  • (2) - DELMAS (J.F.), JOURDAIN (B.) -   Modéles aléatoires  -  Mathématiques et applications (57) Springer-verlag, Berlin (2006).

  • (3) - DURRETT (R.) -   Probability : Theory and examples  -  Wadsworth and Brooks, Pacific Grove (1991).

  • (4) - LACROIX (J.) -   Chaînes de Markov et processus de Poisson  -  Cours en ligne de l’université de Paris VI http://www.proba.jussieu.fr/supports.php.

  • (5) - LACROIX (J.), PRIOURET (P.) -   Probabilités approfondies  -  Cours en ligne de l’université de Paris VI http://www.proba.jussieu.fr/supports.php.

  • (6) - MAZLIAK (L.), PRIOURET (P.), BALDI (P.) -   Martingales et chaînes de Markov  -  Hermann, (2001).

  • ...

DANS NOS BASES DOCUMENTAIRES

  • Probabilités. Concepts fondamentaux

Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 94 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


Article inclus dans l'offre

"Mathématiques"

(170 articles)

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques.

Des contenus enrichis

Quiz, médias, tableaux, formules, vidéos, etc.

Des modules pratiques

Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

Des avantages inclus

Un ensemble de services exclusifs en complément des ressources.

Voir l'offre

Contenus associés

Sur le même sujet

S'inscrire à la Veille Personnalisée

Ressources documentaires

Fonctions à variations bornées

Les fonctions à variations bornées sont des fonctions intégrables particulières dont les variations ...

Mathématiques financières : évaluation de produits dérivés

La théorie classique d'évaluation du prix d’un produit dérivé est ici présentée. De plus, le modèle de ...

Statistique inférentielle - Estimation

La statistique consiste de façon basique à recueillir et analyser des données. De façon plus ...