Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Modèle de Markov caché — Wikipédia
Modèle de Markov caché — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
Page d’aide sur l’homonymie

Pour les articles homonymes, voir MMC.

Modèle de Markov caché
Type
Markov model (en), algorithmeVoir et modifier les données sur Wikidata
Nommé en référence à
Andreï MarkovVoir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

Un modèle de Markov caché (MMC, terme et définition normalisés par l’ISO/CÉI [ISO/IEC 2382-29:1999]) —en anglais : hidden Markov model (HMM)—, ou plus correctement (mais non employé) automate de Markov à états cachés, est un modèle statistique dans lequel le système modélisé est supposé être un processus markovien de paramètres inconnus.

Contrairement à une chaîne de Markov classique, où les transitions prises sont inconnues de l'utilisateur, mais où les états d'une exécution sont connus, dans un modèle de Markov caché, les états d'une exécution sont inconnus de l'utilisateur. Seuls, certains paramètres, comme la température, etc. sont connus de l'utilisateur.

Les modèles de Markov cachés, notamment développés chez IBM par Peter Fitzhugh Brown, sont massivement utilisés, notamment en reconnaissance de formes, en intelligence artificielle ou encore en traitement automatique du langage naturel.

Ces modèles sont également connus pour leur application dans des domaines variés tels que la thermodynamique, la physique statistique, la physique, la chimie, l'économie, la finance, le traitement du signal et la théorie de l'information.

Modèle du sac en papier

[modifier | modifier le code]

Le jeu des sacs en papier

[modifier | modifier le code]

Imaginons un jeu simple, avec des sacs en papier (opaques) contenant des jetons numérotés.

À chaque tour du jeu, nous tirons un jeton d'un sac, et, en fonction du jeton, passons à un autre sac.

Après chaque tour, le jeton est remis dans le sac.

Au fur et à mesure, nous notons la séquence des numéros tirés.

Exemple

[modifier | modifier le code]

Nous disposons de deux sacs, appelés A et B, ainsi que d'un ensemble de jetons numérotés a et b.

Dans chaque sac, nous plaçons un certain nombre de jetons a et un certain nombre de jetons b.

Dans cet exemple, nous plaçons :

  • Dans le sac A, 19 jetons b et un seul jeton a.
  • Dans le sac B, 4 jetons a et un seul jeton b.

Nous avons donc un sous-total de 5 jetons a et un sous-total de 20 jetons b. Ce qui fait un total de 25 jetons.

  • Nous commençons par piocher un jeton au hasard dans le sac A. Si l'on pioche un jeton a, on reste sur ce sac, si l'on pioche un jeton b, on passe au sac B. On note également quel jeton a été tiré et on le remet dans le sac.
  • On recommence cette étape avec le sac en cours, jusqu'à ce que le jeu s'arrête (au bon vouloir du joueur).

Nous avons les probabilités de passer à une station suivante :

Tirage suivant en a Tirage suivant en b
Station courante en A 0,05 0,95
Station courante en B 0,8 0,2

En jouant plusieurs parties, nous sommes susceptibles d'obtenir les séquences suivantes :

  • a b a b a b a a b a
  • a b b a b a b a b a
  • a b b a b b a b a b
  • …

Ce jeu peut être modélisé par une chaîne de Markov : chaque sac représente un état, la valeur du jeton donne la transition, la proportion de jeton d'une valeur est la probabilité de la transition.

Notre exemple du jeu du sac en papier est équivalent à l'automate de Markov suivant :

Le jeu des sacs en papier cachés

[modifier | modifier le code]

Nous reprenons en partie le modèle précédent mais introduisons de nouveaux types de sacs :

  • Des sacs pour savoir dans quel sac effectuer le prochain tirage ;
  • Des sacs de sortie pour générer la séquence.

À partir de la séquence générée, il sera généralement impossible de déterminer quels tirages ont conduit à quelle séquence, la séquence de tirage dans les sacs donnant les transitions est inconnue, c'est pourquoi on parle de sacs en papier cachés.

Exemple

[modifier | modifier le code]

Repartons de l'exemple précédent. Nous conservons les sacs A et B, qui donnent les transitions, et ajoutons deux sacs A' et B' (contenant des jetons j et k), situés juste à côté :

  • A' contient quatre jetons j et un jeton k ;
  • B' contient un jeton j et quatre jetons k.

Le jeu est le suivant :

  • On part du groupe de sacs (A et A'), on tire un jeton dans le sac A', on consigne sa valeur (j ou k) et on le replace dans le sac ;
  • On tire un jeton dans le sac A pour savoir dans quel groupe de sacs se feront les prochains tirages, on le replace ;
  • Si le jeton sortant du sac A est un 'a' alors les prochains tirages se feront dans le groupe de sac (A et A'), si c'est un 'b', il se fera dans le groupe de sac (B et B') ;
  • On recommence ces opérations autant de fois que le joueur le souhaite.

À chaque étape, on tire donc un jeton dans chaque sac d'un même groupe, à savoir A et A' ou B et B', ce qui permet d'avoir une valeur (j ou k) qui n'indique pas directement la transition.

Le jeu génère deux séquences :

  • La séquence de sortie, connue, le résultat du jeu (ce sont les valeurs j ou k contenues dans les sacs A' et B') ;
  • La séquence des transitions, inconnue (ce sont les valeurs a et b contenues dans les sacs A et B).

Pour cet exemple, nous avons pu générer les séquences suivantes :

Séquence de transition A B A B A B B A A A B A A B A B A B A B
Séquences de sortie j j k k j k k j k j j j j k k j k k j k

On observe que des séquences de transitions identiques peuvent donner des sorties différentes, et vice-versa.

Ce jeu peut être modélisé par un Automate de Markov à états cachés : les groupes de sacs sont les états, les tirages donnant le groupe de tirages suivant sont les transitions (avec la probabilité associée en fonction de la proportion des jetons dans les sacs A ou B), les sacs de sortie donnent les valeurs de sortie de l'automate (avec la probabilité associée en fonction de la proportion des jetons dans les sacs A' ou B').

Le jeu précédent correspond donc à l'automate de Markov à états cachés suivant :

Les flèches en pointillés indiquent les sorties probables à chaque passage dans un état.

Définition formelle d'un Modèle de Markov Caché (MMC)[1]

[modifier | modifier le code]

Formellement, un MMC est défini par :

S = { s 1 , … , s N } {\displaystyle {\mathit {S}}=\{{\mathit {s_{1}}},\ldots ,{\mathit {s_{N}}}\}} {\displaystyle {\mathit {S}}=\{{\mathit {s_{1}}},\ldots ,{\mathit {s_{N}}}\}} l'ensemble discret des N {\displaystyle {\mathit {N}}} {\displaystyle {\mathit {N}}} états du modèle; on désigne un état au temps t {\displaystyle {\mathit {t}}} {\displaystyle {\mathit {t}}} par q t ∈ S {\displaystyle {\mathit {q_{t}}}\in {\mathit {S}}} {\displaystyle {\mathit {q_{t}}}\in {\mathit {S}}}.

V = { v 1 , … , v M } {\displaystyle {\mathit {V}}=\{{\mathit {v_{1},\ldots ,v_{M}}}\}} {\displaystyle {\mathit {V}}=\{{\mathit {v_{1},\ldots ,v_{M}}}\}} l'ensemble discret des M {\displaystyle {\mathit {M}}} {\displaystyle {\mathit {M}}} symboles observables; on désigne un symbole au temps t {\displaystyle {\mathit {t}}} {\displaystyle {\mathit {t}}} par o t ∈ V {\displaystyle {\mathit {o_{t}}}\in {\mathit {V}}} {\displaystyle {\mathit {o_{t}}}\in {\mathit {V}}}.

π = { π 1 , … , π N } {\displaystyle {\mathit {\pi }}=\{{\mathit {\pi _{1},\ldots ,\pi _{N}}}\}} {\displaystyle {\mathit {\pi }}=\{{\mathit {\pi _{1},\ldots ,\pi _{N}}}\}} la probabilité de commencer dans l'état i     ( 1   ≤ i   ≤   N ) {\displaystyle {\mathit {i}}\ \ (1\ \leq {\mathit {i}}\ \leq \ {\mathit {N}})} {\displaystyle {\mathit {i}}\ \ (1\ \leq {\mathit {i}}\ \leq \ {\mathit {N}})}.

A = { a i j } 1 ≤ i , j ≤ N {\displaystyle {\mathit {A}}=\{{\mathit {a_{ij}}}\}_{1\leq {\mathit {i,j}}\leq {\mathit {N}}}} {\displaystyle {\mathit {A}}=\{{\mathit {a_{ij}}}\}_{1\leq {\mathit {i,j}}\leq {\mathit {N}}}}, où a i j = P ( q t + 1 = s j   |   q t = s i ) {\displaystyle {\mathit {a_{ij}}}={\mathit {P}}({\mathit {q_{t+1}={\mathit {s_{j}}}\ |\ {\mathit {q_{t}}}={\mathit {s_{i}}}}})} {\displaystyle {\mathit {a_{ij}}}={\mathit {P}}({\mathit {q_{t+1}={\mathit {s_{j}}}\ |\ {\mathit {q_{t}}}={\mathit {s_{i}}}}})} pour les modèles d'ordre 1 {\displaystyle 1} {\displaystyle 1}; A {\displaystyle {\mathit {A}}} {\displaystyle {\mathit {A}}} est la matrice des probabilités de transitions entre états.

B = { b j ( k ) } 1 ≤ j ≤ N , 1 ≤ k ≤ M {\displaystyle {\mathit {B}}=\{{\mathit {b_{j}}}({\mathit {k}})\}_{1\leq {\mathit {j}}\leq {\mathit {N}},1\leq {\mathit {k}}\leq {\mathit {M}}}} {\displaystyle {\mathit {B}}=\{{\mathit {b_{j}}}({\mathit {k}})\}_{1\leq {\mathit {j}}\leq {\mathit {N}},1\leq {\mathit {k}}\leq {\mathit {M}}}}, où b j ( k ) = P ( o t = v k   |   q t = s j ) {\displaystyle {\mathit {b}}_{\mathit {j}}({\mathit {k}})={\mathit {P}}({\mathit {o_{t}}}={\mathit {v_{k}}}\ |\ {\mathit {q_{t}}}={\mathit {s_{j}}})} {\displaystyle {\mathit {b}}_{\mathit {j}}({\mathit {k}})={\mathit {P}}({\mathit {o_{t}}}={\mathit {v_{k}}}\ |\ {\mathit {q_{t}}}={\mathit {s_{j}}})}; B {\displaystyle {\mathit {B}}} {\displaystyle {\mathit {B}}} est la matrice des probabilités d'observation dans les états.

Habituellement, on désigne un MMC par le triplet { A , B , π } {\displaystyle \{A,B,\pi \}} {\displaystyle \{A,B,\pi \}}.


Les contraintes classiques d'un MMC sont[2] :

∑ i π i = 1 , ∀ s i ∈ S {\displaystyle \sum _{i}\pi _{i}=1,\forall s_{i}\in S} {\displaystyle \sum _{i}\pi _{i}=1,\forall s_{i}\in S} : la somme des probabilités des états initiaux est égale à 1.

∑ j = 1 N a i j = 1 , ∀ s i ∈ S {\displaystyle \sum _{j=1}^{N}a_{ij}=1,\forall s_{i}\in S} {\displaystyle \sum _{j=1}^{N}a_{ij}=1,\forall s_{i}\in S} : la somme des probabilités des transitions partant d'un état est égale à 1.

∑ k = 1 M b j ( k ) = 1 , ∀ s j ∈ S {\displaystyle \sum _{k=1}^{M}b_{j}(k)=1,\forall s_{j}\in S} {\displaystyle \sum _{k=1}^{M}b_{j}(k)=1,\forall s_{j}\in S} : la somme des probabilités des observations d'un état est égale à 1.

Définition étendue d'un MMC : MMC à états spécifiques

[modifier | modifier le code]

Au début des années 2000, une définition étendue des MMC a été proposée[3] , {\displaystyle ^{,}} {\displaystyle ^{,}}[4]. Elle ajoute deux états spécifiques D {\displaystyle {\mathit {D}}} {\displaystyle {\mathit {D}}} et F {\displaystyle {\mathit {F}}} {\displaystyle {\mathit {F}}} qui modélisent respectivement les transitions permettant de (D)ébuter dans un état et de (F)inir dans un état.

Formellement, un MMC à états spécifiques est défini par :

S = { s 1 , … , s N , D , F } {\displaystyle {\mathit {S}}=\{{\mathit {s_{1}}},\ldots ,{\mathit {s_{N}}},D,F\}} {\displaystyle {\mathit {S}}=\{{\mathit {s_{1}}},\ldots ,{\mathit {s_{N}}},D,F\}} l'ensemble discret des N {\displaystyle {\mathit {N}}} {\displaystyle {\mathit {N}}} états du modèle plus les deux états spécifiques D {\displaystyle {\mathit {D}}} {\displaystyle {\mathit {D}}} et F {\displaystyle {\mathit {F}}} {\displaystyle {\mathit {F}}}; on désigne un état au temps t {\displaystyle {\mathit {t}}} {\displaystyle {\mathit {t}}} par q t ∈ S {\displaystyle {\mathit {q_{t}}}\in {\mathit {S}}} {\displaystyle {\mathit {q_{t}}}\in {\mathit {S}}}.

V = { v 1 , … , v M } {\displaystyle {\mathit {V}}=\{{\mathit {v_{1},\ldots ,v_{M}}}\}} {\displaystyle {\mathit {V}}=\{{\mathit {v_{1},\ldots ,v_{M}}}\}} l'ensemble discret des M {\displaystyle {\mathit {M}}} {\displaystyle {\mathit {M}}} symboles observables; on désigne un symbole au temps t {\displaystyle {\mathit {t}}} {\displaystyle {\mathit {t}}} par o t ∈ V {\displaystyle {\mathit {o_{t}}}\in {\mathit {V}}} {\displaystyle {\mathit {o_{t}}}\in {\mathit {V}}}.

A = { a i j ∪ { a D i , i ≠ D , F , a i F , i ≠ D , F } } 1 ≤ i , j ≤ N {\displaystyle {\mathit {A}}=\{{\mathit {a_{ij}}}\cup \{a_{Di,i\neq D,F},a_{iF,i\neq D,F}\}\}_{1\leq {\mathit {i,j}}\leq {\mathit {N}}}} {\displaystyle {\mathit {A}}=\{{\mathit {a_{ij}}}\cup \{a_{Di,i\neq D,F},a_{iF,i\neq D,F}\}\}_{1\leq {\mathit {i,j}}\leq {\mathit {N}}}}, où a i j = P ( q t + 1 = s j   |   q t = s i ) i , j ≠ D , F {\displaystyle {\mathit {a_{ij}}}={\mathit {P}}({\mathit {q_{t+1}={\mathit {s_{j}}}\ |\ {\mathit {q_{t}}}={\mathit {s_{i}}}}})_{i,j\neq D,F}} {\displaystyle {\mathit {a_{ij}}}={\mathit {P}}({\mathit {q_{t+1}={\mathit {s_{j}}}\ |\ {\mathit {q_{t}}}={\mathit {s_{i}}}}})_{i,j\neq D,F}}, a D i , i ≠ D , F = P ( q 1 = s i   |   D ) {\displaystyle {\mathit {a_{Di,i\neq D,F}}}={\mathit {P}}({\mathit {q_{1}={\mathit {s_{i}}}\ |\ {\mathit {D}}}})} {\displaystyle {\mathit {a_{Di,i\neq D,F}}}={\mathit {P}}({\mathit {q_{1}={\mathit {s_{i}}}\ |\ {\mathit {D}}}})}, a i F , i ≠ D , F = P ( F   |   q T = s i ) {\displaystyle {\mathit {a_{iF,i\neq D,F}}}={\mathit {P}}({\mathit {{\mathit {F}}\ |\ q_{T}={\mathit {s_{i}}}}})} {\displaystyle {\mathit {a_{iF,i\neq D,F}}}={\mathit {P}}({\mathit {{\mathit {F}}\ |\ q_{T}={\mathit {s_{i}}}}})} pour les modèles d'ordre 1 {\displaystyle 1} {\displaystyle 1}; A {\displaystyle {\mathit {A}}} {\displaystyle {\mathit {A}}} est la matrice des probabilités de transitions entre états.

B = { b j ( k ) } 1 ≤ j ≤ N , 1 ≤ k ≤ M {\displaystyle {\mathit {B}}=\{{\mathit {b_{j}}}({\mathit {k}})\}_{1\leq {\mathit {j}}\leq {\mathit {N}},1\leq {\mathit {k}}\leq {\mathit {M}}}} {\displaystyle {\mathit {B}}=\{{\mathit {b_{j}}}({\mathit {k}})\}_{1\leq {\mathit {j}}\leq {\mathit {N}},1\leq {\mathit {k}}\leq {\mathit {M}}}}, où b j ( k ) = P ( o t = v k   |   q t = s j , j ≠ D , F ) {\displaystyle {\mathit {b}}_{{\mathit {j}}({\mathit {k}})}={\mathit {P}}({\mathit {o_{t}}}={\mathit {v_{k}}}\ |\ {\mathit {q_{t}}}={\mathit {s_{j,j\neq D,F}}})} {\displaystyle {\mathit {b}}_{{\mathit {j}}({\mathit {k}})}={\mathit {P}}({\mathit {o_{t}}}={\mathit {v_{k}}}\ |\ {\mathit {q_{t}}}={\mathit {s_{j,j\neq D,F}}})}; B {\displaystyle {\mathit {B}}} {\displaystyle {\mathit {B}}} est la matrice des probabilités d'observation dans les états; Les états spécifiques D {\displaystyle {\mathit {D}}} {\displaystyle {\mathit {D}}} et F {\displaystyle {\mathit {F}}} {\displaystyle {\mathit {F}}} n'ont pas de probabilité d'observation.

On désigne un MMC à états spécifiques par le couple { A , B } {\displaystyle \{A,B\}} {\displaystyle \{A,B\}}.


Les contraintes d'un MMC à états spécifiques sont :

∑ j = 1 N a i j = 1 ,   ∀ i , j ∈ S ,   i ≠ F , j ≠ D {\displaystyle \sum _{j=1}^{N}a_{ij}=1,\ \forall {i,j}\in S,\ {i\neq F,j\neq D}} {\displaystyle \sum _{j=1}^{N}a_{ij}=1,\ \forall {i,j}\in S,\ {i\neq F,j\neq D}}.

∑ j = 1 N b j ( k ) = 1 ,   ∀ k ∈ V ,   ∀ j ∈ N , j ≠ D , F {\displaystyle \sum _{j=1}^{N}b_{j}(k)=1,\ \forall k\in V,\ \forall j\in N,j\neq D,F} {\displaystyle \sum _{j=1}^{N}b_{j}(k)=1,\ \forall k\in V,\ \forall j\in N,j\neq D,F}.


Notons que la probabilité de commencer en un état ( π {\displaystyle {\mathit {\pi }}} {\displaystyle {\mathit {\pi }}}) a disparu : elle est élégamment remplacée par les transitions de D {\displaystyle {\mathit {D}}} {\displaystyle {\mathit {D}}} vers les états concernés; d'un point de vue intellectuel, ces transitions sont plus en accord avec la théorie des graphes, puisqu'il n'y a plus de cas spécifique pour le démarrage, mais des transitions comme toutes les autres; d'un point de vue technique, ces transitions sont strictement équivalentes aux probabilités de commencer dans des états, et leur réestimation conduit exactement au même résultat.

Concernant l'état F {\displaystyle {\mathit {F}}} {\displaystyle {\mathit {F}}}, il permet de sortir proprement du modèle : cela mérite quelques explications. Pour des modèles fortement structurés[5], où les états se succèdent sans auto-boucler, les états finaux sont ceux où la dernière observation peut être vue. Pour des modèles où des états bouclent sur eux-mêmes[3], la notion de fin n'est pas déterminée : théoriquement, chaque état peut être final, sauf à avoir un ou des états finaux par structuration(s) forte(s) locale(s). L'état F {\displaystyle {\mathit {F}}} {\displaystyle {\mathit {F}}} vient pallier ce manque : en assignant une probabilité de finir en des états, il contraint le modèle à évaluer cette probabilité, qui modélise alors l'équilibre entre la transition d'un état sur lui-même et sa qualité d'état final.

Utilisation

[modifier | modifier le code]

Il y a trois exemples typiques de problèmes que l'on peut chercher à résoudre avec un HMM :

  • Connaissant l'automate, calculer la probabilité d'une séquence particulière (se résout à l'aide de l'algorithme Forward (en)) ;
  • Connaissant l'automate, trouver la séquence la plus probable d'état (caché) ayant conduit à la génération d'une séquence de sortie donnée (se résout avec l'algorithme de Viterbi) ;
  • Étant donné une séquence de sortie, retrouver l'ensemble d'états le plus probable et les probabilités des sorties sur chaque état. Se résout avec l'algorithme de Baum-Welch, appelé aussi algorithme forward-backward.

Applications

[modifier | modifier le code]

Les modèles de Markov cachés peuvent être appliqués dans de nombreux domaines où l'objectif est de reconstituer une séquence de données, qui n'est pas immédiatement observable, mais dont d'autres données dépendantes le sont.

Voici quelques exemples d'applications :

  • Bio-informatique, notamment pour la prédiction de gènes, l'alignement de séquences
  • Cryptanalyse
  • Décharge partielle
  • Neurosciences
  • Reconnaissance de la parole.
  • Reconnaissance de l'écriture manuscrite
  • Repliement des protéines
  • Série temporelle
  • Synthèse vocale
  • Traitement automatique du langage naturel, particulièrement pour la traduction automatique, l'étiquetage de texte, la reconstruction de texte bruités….

Histoire

[modifier | modifier le code]

Les HMM ont été décrits pour la première fois dans une série de publications de statistiques par Leonard E. Baum (en) et d'autres auteurs après 1965.

Ils ont été appliqués dès la fin des années 1970 à la reconnaissance vocale[2].

Dans la seconde moitié des années 1980, les HMM ont commencé à être appliqués à l'analyse de séquences biologique, en particulier l'ADN [6]. Les réseaux bayésiens dynamiques introduits au tout début des années 1990 généralisent le principe des HMM.

Apprentissage des HMM

[modifier | modifier le code]
Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

L'apprentissage des paramètres dans les HMM consiste à trouver, à partir d'une séquence ou de plusieurs séquences de sortie, le meilleur ensemble de probabilités de transition d'état et d'émission.Souvent, il s'agit de la meilleure estimation maximale de vraisemblances des paramètres du modèle.

Il existe plusieurs algorithmes pour réaliser l'apprentissage des paramètres d'un HMM. On peut citer notamment :

  • L'algorithme de Baum-Welch est un cas particulier de l'algorithme espérance-maximisation et utilise l'algorithme Forward-Backward. Il permet de ré-estimer les paramètres de manière itérative.
  • L'algorithme de Viterbi, souvent utilisé en décodage, peut également être utilisé pour l'apprentissage.
  • Iterated Conditional Estimation ICE

Références

[modifier | modifier le code]
  1. ↑ (en) L. Rabiner et B. Juang, « An introduction to hidden Markov models », IEEE ASSP Magazine, vol. 3, no 1,‎ 1986, p. 4–16 (ISSN 0740-7467, DOI 10.1109/massp.1986.1165342, lire en ligne).
  2. ↑ a et b Lawrence R. Rabiner, « A tutorial on Hidden Markov Models and selected applications in speech recognition », Proceedings of the IEEE, vol. 77, no 2,‎ février 1989, p. 257–286 (DOI 10.1109/5.18626, lire en ligne [PDF]) [1].
  3. ↑ a et b Christophe Choisy, Abdel Belaïd, « Apprentissage croisé en reconnaissance analytique de l’écriture manuscrite », Colloque International Francophone sur l’Ecrit et le Document - CIFEd'00,‎ 2000 (lire en ligne)
  4. ↑ Christophe Choisy, Abdel Belaïd, « Cross-learning in Analytic Word Recognition Without Segmentation », International Journal on Document Analysis and Recognition, vol. 4, no 4,‎ 2002, p. 281-289 (DOI 10.1007/s100320200078).
  5. ↑ El Yacoubi, Mounim & Gilloux, M. & Sabourin, Robert & Suen, Ching, « An HMM-based approach for off-line unconstrained handwritten word modeling and recognition », IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 21, no 8,‎ septembre 1999, p. 752-760 (DOI 10.1109/34.784288, lire en ligne)
  6. ↑ M Bishop et Thompson E, « Maximum likelihood alignment of DNA sequences », J Mol Biol, vol. 190, no 2,‎ 20 juillet 1986, p. 159–65 (PMID 3641921, DOI 10.1016/0022-2836(86)90289-5).

Voir aussi

[modifier | modifier le code]
  • Andrei Markov (mathématicien)
  • Chaîne de Markov
  • Propriété de Markov
  • Couverture de Markov
  • Algorithme de Viterbi
  • Filtre de Kalman
  • Théorème de Masreliez
  • N-gramme
  • Processus de décision markovien partiellement observable
  • Peter Fitzhugh Brown
v · m
Apprentissage automatique et exploration de données
Paradigmes
  • Apprentissage supervisé
  • Auto-supervisé
  • Semi-supervisé
  • Non supervisé
  • Apprentissage par renforcement
  • Transfert
  • Incrémental
Problèmes
  • Classement
  • Clustering
  • Détection d'anomalies
  • Optimisation en ligne
  • Modèle génératif
  • Régression
  • Règle d'association
  • Réduction de dimensions
    • Analyse factorielle
    • Sélection de caractéristique
    • Extraction de caractéristique
Supervisé
Classement
  • Arbre de décision
  • k-NN
  • U-matrix
  • CRF
  • Régression logistique
Régression
  • Modèle linéaire généralisé
    • Régression linéaire
    • Régression de Poisson
    • Modèle probit
  • Analyse discriminante linéaire
  • Machine à vecteurs de support
Prédiction structurée
  • Modèle graphique
    • Classification naïve bayésienne
    • Réseau bayésien
    • Modèle de Markov caché
Réseau de neurones
artificiels
  • Récurrents
    • Rétropropagation à travers le temps
    • Calcul par réservoir
  • à action directe
    • Rétropropagation du gradient
    • Apprentissage profond
    • Perceptron
    • Perceptron multicouche
    • Réseau neuronal convolutif
    • Attention
  • Réseau de neurones à impulsions
Non supervisé et
auto-supervisé
Découverte de structures
  • Clustering
    • Regroupement hiérarchique
    • K-moyennes
    • Algorithme espérance-maximisation
    • DBSCAN
    • OPTICS
  • Règle d'association
Réduction de dimensions
  • ACP
  • ACP à noyaux
  • Analyse en composantes indépendantes
  • Analyse canonique des corrélations
  • Analyse canonique à noyaux
  • t-SNE
  • Réseau de neurones artificiels
    • Auto-encodeur
IA générative
et modèle génératif
  • Réseau de neurones artificiels
    • Réseaux antagonistes génératifs
      • Classique
      • de Wasserstein)
    • Auto-encodeur variationnel
    • Réseau de Hopfield
    • Machine de Boltzmann restreinte
    • Cartes de Kohonen
    • Transformeur
Métaheuristique
d'optimisation
  • Stratégie d'évolution et génétique
    • NEAT
    • HyperNEAT
  • Essaims
  • Apprentissage ensembliste
    • Forêts aléatoires
    • Boosting
Théorie
  • Apprentissage PAC
  • Complexité de Rademacher
  • Dilemme biais-variance
  • Hypothèse de la variété
  • Théorie de Vapnik-Chervonenkis
    • Pulvérisation
    • Dimension de Vapnik-Chervonenkis
  • Théorème de Cover
Logiciels
  • Keras
  • Microsoft Cognitive Toolkit
  • Scikit-learn
  • TensorFlow
  • Theano
  • Weka
  • PyTorch
  • icône décorative Portail de l'informatique théorique
  • icône décorative Portail des probabilités et de la statistique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Modèle_de_Markov_caché&oldid=230593462 ».
Catégories :
  • Apprentissage automatique
  • Chaîne de Markov
  • Théorie des automates
Catégories cachées :
  • Page utilisant des données de Wikidata à traduire de l'anglais
  • Page utilisant P279
  • Page utilisant P138
  • Article à illustrer Méthode scientifique
  • Article utilisant l'infobox Méthode scientifique
  • Article utilisant une Infobox
  • Article contenant un appel à traduction en anglais
  • Article avec une section vide ou incomplète
  • Portail:Informatique théorique/Articles liés
  • Portail:Informatique/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés
  • Portail:Probabilités et statistiques/Articles liés
  • Bon article en anglais

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id