Présentation
RÉSUMÉ
Les modèles markoviens cachés sont un outil essentiel pour le traitement, l’exploration, la classification, l’étiquetage, le clustering de données séquentielles et de signaux complexes. Ils ont été intensivement utilisés pour des tâches liées au traitement de signaux et séquences véhiculant un message linguistique tels que le signal de parole, le signal d’écriture, le texte. Ils ont été également utilisés pour traiter divers autres types de signaux en bio-informatique, de séquences de navigation et d’interaction homme-machine, etc.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleABSTRACT
Hidden Markov models are an essential tool for the treatment, exploration, classification, labeling and clustering of sequential data and complex signals. They have been intensively used for tasks linked to the processing of signals and sequences conveying a linguistic message such as speech signal, write signal or text. They have also been used to process various types of other signals in bio-computing, navigation sequences and man-machine interaction.
Auteur(s)
-
Thierry ARTIÈRES : Professeur d’informatique - Laboratoire d’informatique de Paris 6 (LIP6) - Université Pierre et Marie Curie (UPMC)
INTRODUCTION
Les modèles markoviens sont une famille de modèles statistiques pour le traitement, l’analyse, la classification de données structurées. Cet article est focalisé sur une instance de ces modèles, les modèles markoviens cachés (MMC), qui ont été et restent très utilisés dans des domaines de classification et d’étiquetage de séquences et de signaux complexes. Ils ont été intensivement utilisés pour des tâches liées au traitement de signaux et séquences véhiculant un message linguistique tels que le signal de parole , le signal d’écriture , le texte. Ils ont été également utilisés pour traiter divers autres types de signaux en bio-informatique, de séquences de navigation et d’interaction homme-machine, etc.
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Mathématiques
(202 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
2. Chaînes de Markov et automates probabilistes à états finis
Une chaîne de Markov est un automate probabiliste à états finis. Elle permet de modéliser la dynamique d’un processus pouvant se trouver dans un nombre fini d’états possibles. Nous noterons S = {e1,..., eN} l’ensemble des N états possibles d’une chaîne de Markov et st la variable aléatoire représentant l’état à l’instant t d’un processus markovien (avec ∀t, st ∈ S).
Par hypothèse markovienne on entend l’hypothèse selon laquelle l’état du processus à un instant donné ne dépend que de l’état du processus aux p instant précédents, on dit dans ce cas que la chaîne de Markov est une chaîne d’ordre p. La très grande majorité des travaux basés sur des modèles markoviens en reconnaissance des formes exploite des chaînes de Markov d’ordre 1, nous nous concentrerons dans la suite sur ces modèles.
2.1 Chaînes de Markov
Une chaîne de Markov est définie par deux lois de probabilités :
-
une loi de probabilité sur l’état initial notée Π = (π1,..., πN) où où λ désigne la structure (nombre d’états, etc.) et les paramètres de la chaîne de Markov ;
-
une loi de probabilité sur les transitions notée où .
Généralement on distingue deux pseudo-états, un état initial et un état final. Ces deux pseudo-états ont des rôles particuliers. On démarre nécessairement dans le pseudo-état initial et on ne peut ni y rester ni y revenir. Lorsque l’on se trouve dans le pseudo-état final cela signifie que la séquence est terminée. On notera l’état initial l’état numéro 0 ou bien l’état « Start » et on notera l’état...
Cet article fait partie de l’offre
Mathématiques
(202 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Chaînes de Markov et automates probabilistes à états finis
BIBLIOGRAPHIE
-
(1) - RABINER (L.R.) - * - . – A tutorial on hidden markov models and selected applications in speech recognition, in : Proceedings of the IEEE, pp. 257-286 (1989).
-
(2) - HU (J.), LIM (S.G.), BROWN (M.K.) - Writer independent on-line handwriting recognition using an hmm approach - Pattern Recognition 33 (1) 133-147 (2000).
-
(3) - RABINER (L.), JUANG (B.-H.) - Fundamentals of speech recognition - Prentice-Hall, Inc., Upper Saddle River, NJ, USA (1993).
-
(4) - BERTSEKAS (D.), NEDIC (A.), OZDAGLAR (A.) - Convex Analysis and Optimization, Athena Scientific optimization and computation series - Athena Scientific (2003).
-
(5) - BILMES (J.) - Natural statistical models for automatic speech recognition - Ph.D. thesis, U.C. Berkeley, Dept. of EECS, CS Division (1999).
-
(6) - JUANG (B.-H.), RABINER (L.) - The segmental k-means algorithm for estimating...
DANS NOS BASES DOCUMENTAIRES
ANNEXES
Liste Wikipedia des outils développés pour la reconnaissance de la parole : http://en.wikipedia.org/wiki/List-of-speech-recognition-software
HAUT DE PAGECet article fait partie de l’offre
Mathématiques
(202 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive