Modèle de markov caché hmm

Modèle de lettre de relance facture impayée
February 14, 2019
Modèle de prorogation de certificat d`urbanisme
February 14, 2019

Modèle de markov caché hmm

Tous les modèles ci-dessus peuvent être étendus pour permettre des dépendances plus éloignées entre les États cachés, par exemple en permettant à un État donné de dépendre des deux ou trois États précédents plutôt qu`un seul état antérieur; c.-à-d. les probabilités de transition sont étendues pour englober les ensembles de trois ou quatre États adjacents (ou en général K {displaystyle K} États adjacents). L`inconvénient de ces modèles est que les algorithmes de programmation dynamique pour les former ont une durée de fonctionnement O (N K T) {displaystyle O (N ^ {K} , T)}, pour les États adjacents K {displaystyle K} et T {displaystyle T} Total observations (i.e. a length-T { DisplayStyle T} chaîne de Markov). Un modèle Markov caché de base peut être décrit comme suit: cette section montre comment utiliser ces fonctions pour analyser les modèles de Markov cachés. Il est utile d`imaginer un HMM générant une séquence. Lorsque nous visitons un État, nous émettons un résidu de la distribution de probabilité d`émission de l`État. Ensuite, nous choisissons l`État à visiter suivant en fonction de la distribution de probabilité de transition de l`État. Le modèle génère donc deux chaînes d`informations. L`un est le chemin d`État sous-jacent (les étiquettes), lorsque nous transions d`un État à l`autre. L`autre est la séquence observée (l`ADN), chaque résidu étant émis à partir d`un État dans le chemin d`État.

Parfois, on peut plier les règles de HMMs sans casser les algorithmes. Par exemple, dans la recherche de gènes, on veut émettre un codon triplet corrélé au lieu de trois résidus indépendants; Les algorithmes HMM peuvent facilement être étendus aux États émettant des triplet. Cependant, la boîte à outils de base HMM ne peut être étiré jusqu`à présent. Au-delà des HMMs, il existe des classes plus puissantes (quoique moins efficaces) de modèles probabilistes pour l`analyse de séquences. Par défaut, les fonctions de modèle de Markov masquées de Statistics et machine learning Toolbox commencent dans l`État 1. En d`autres termes, la distribution des États initiaux a toute sa masse de probabilité concentrée à l`État 1. Pour assigner une répartition différente des probabilités, p = [P1, P2,…, pM], aux États initiaux M, procédez comme suit: la tâche consiste à calculer de manière optimale, compte tenu des paramètres du modèle, la probabilité d`une séquence de sortie particulière. Cela nécessite une sommation sur toutes les séquences d`État possibles: pourtant, une autre variante est le modèle de Markov caché factoriel, qui permet une seule observation à être conditionné sur les variables cachées correspondantes d`un ensemble de K {displaystyle K} indépendant Markov chaînes, plutôt qu`une seule chaîne de Markov. Il est équivalent à un seul HMM, avec N K {displaystyle N ^ {K}} États (en supposant qu`il y a N {displaystyle N} États pour chaque chaîne), et donc, l`apprentissage dans un tel modèle est difficile: pour une séquence de longueur T {displaystyle T}, un simple l`algorithme a une complexité O (N 2 K T) {displaystyle O (N ^ {2K} , T)}. Pour trouver une solution exacte, un algorithme d`arborescence de jonction peut être utilisé, mais il se traduit par une complexité O (N K + 1 K T) {displaystyle O (N ^ {K + 1} , K , T)}. Dans la pratique, des techniques approximatives, telles que des approches variationnelles, pourraient être utilisées.

[40] le terme caché fait référence au processus de premier ordre de Markov derrière l`observation. L`observation fait référence aux données que nous connaissons et pouvons observer. Le processus de Markov est montré par l`interaction entre “pluvieux” et “ensoleillé” dans le diagramme ci-dessous et chacun de ces États sont cachés. À partir de cette information, nous pouvons dessiner un HMM (Fig. 1). Le HMM invoque trois États, un pour chacune des trois étiquettes que nous pourrions assigner à un nucléotide: E (exon), 5 (5 ′ SS) et I (intron). Chaque État a ses propres probabilités d`émission (indiquées ci-dessus les États), qui modélisez la composition de base des exons, introns et le consensus G à la 5 ′ SS. Chaque État a également des probabilités de transition (flèches), les probabilités de passer de cet État à un nouvel État.

Comments are closed.