12
UNIVERSIDAD TÉCNICA PARTICULAR DE LOJA ESCUELA DE CIENCIAS DE LA COMPUTACIÓN Estudiante: Edwin Cuenca; [email protected] Tutor: Ing. Janneth Chicaiza

Modelos Ocultos De Markov

Embed Size (px)

Citation preview

Page 1: Modelos Ocultos De Markov

UNIVERSIDAD TÉCNICA PARTICULAR DE LOJA ESCUELA DE CIENCIAS DE LA COMPUTACIÓN

Estudiante: Edwin Cuenca; [email protected]

Tutor: Ing. Janneth Chicaiza

Page 2: Modelos Ocultos De Markov

Introducción

• Los modelos markovianos ocultos (HMM del inglés -Hidden Markov Model) asumen que el sistema estudiado sigue un proceso de Markov con parámetros desconocidos.

•La tarea fundamental consiste en determinar los parámetros ocultos a partir de los parámetros observados. La diferencia fundamental respecto a un modelo de Markov habitual consiste en que los estados no son directamente visibles para el observador, pero sí lo son las variables influenciadas por el estado. Cada estado tiene una distribución de probabilidad asociada sobre el conjunto de posibles valores de salida. La secuencia de valores de salida generados a partir de un HMM nos dará cierta información sobre la secuencia de estados.

Page 3: Modelos Ocultos De Markov

Historia

• Los modelos ocultos de Markov fueron descritos por primera vez en una serie de artículos estadísticos por Leonard E. Baum y otros autores en la segunda mitad de la década de 1960. Una de las primeras aplicaciones de HMMs fue reconocimiento del habla, comenzando en la mitad de la década de 1970.

• En la segunda mitad de la década de 1980, los HMMs comenzaron a ser aplicados al análisis de secuencias biológicas, en particular de DNA. Desde entonces, se han hecho ubicuos en el campo de la bioinformática.

Page 4: Modelos Ocultos De Markov

Arquitectura de un modelo oculto de Markov

El diagrama muestra la arquitectura general de un HMM. Cada óvalo representa una variable aleatoria que puede tomar determinados valores. La variable aleatoria x(t) es el valor de la variable oculta en el instante de tiempo t. La variable aleatoria y(t) es el valor de la variable observada en el mismo instante de tiempo t. Las flechas indican dependencias condicionales.

Page 5: Modelos Ocultos De Markov

Definición formal de un Modelo Oculto de Markov

• Una notación habitual de un MOM es la representación como una tupla (Q,V,π,A,B):

• El conjunto de estados . El estado inicial se denota como qt. En el caso de la etiquetación categorial, cada valor de t hace referencia a la posición de la palabra en la oración.

• El conjunto V de posibles valores observables en cada estado. M es el número de palabras posibles y cada vk hace referencia a una palabra diferente.

• Las probabilidades iniciales π = {πi}

• El conjunto de probabilidades A = {aij} de transiciones entre estados.

– aij = P(qt = j | qt − 1 = i), es decir, aij es la probabilidad de estar en el estado j en el instante t si en el instante anterior t − 1 se estaba en el estado i.

• El conjunto de probabilidades B = {bj(vk)} de las observaciones.

– bj(vk) = P(ot = vk | qt = j), es decir, la probabilidad de observar vk cuando se está en el estado j en el instante t.

• La secuencia de observables se denota como un conjunto .

Page 6: Modelos Ocultos De Markov

Tipos de problemas relacionados con HMM

• Dado el HMM ¿cual es la probabilidad de una secuencia de observables? (algoritmos forward y backward)

• Dado el HMM y una secuencia de observables ¿cual es la secuencia de estados mas probable que ha generado la secuencia observable? (algoritmo de Viterbi)

• Dado un conjunto de estados y una colección de secuencias observables, ¿cual es el HMM mas probable que ha generado las secuencias? (algoritmo de Baum-Welch)

Page 7: Modelos Ocultos De Markov

Algoritmo de Forward

• Consideremos la función αt(i):αt(i) = P(O1,O2...Ot, qt = Si | λ)Esta ecuación puede calcularse de forma recursiva:

Y ahora,

Que puede calcularse en tiempo O(N2T)

Page 8: Modelos Ocultos De Markov

Algoritmos de Backward

• De forma simétrica, consideremos la función βt(i):βt(i) = P(Ot+1 . . .OT , qt = Si | λ)Esta ecuación puede calcularse de forma recursiva:

Y ahora,

Que puede calcularse en tiempo O(N2T)

Page 9: Modelos Ocultos De Markov

Algoritmo de Viterbi

• Objetivo: Queremos saber cual es la secuencia de estados que maximiza P(O|Q, λ) (que es lo mismo que maximizar P(O,Q|λ))Definimos la cantidad:

Que puede calcularse recursivamente como:

Y la probabilidad de la secuencia óptima será:

Page 10: Modelos Ocultos De Markov

Baum Welch• Número de veces promedio que se pasa por un estado:

• Número de veces promedio que se usa un arco:

• El nuevo HMM (N,M, ¯A, ¯B, ∏) será:

:

Page 11: Modelos Ocultos De Markov

CONCLUSIONES

• Un modelo oculto de Markov es una máquina de estados finita probabilística.

• Los modelos ocultos de Markov fueron descritos por primera vez en una serie de artículos estadísticos.

Page 12: Modelos Ocultos De Markov

REFERENCIAS

• Sierra, Aprendizaje Automático: conceptos básicos y avanzados.

• Modelos Ocultos de Markov, Wiki http://es.wikipedia.org/wiki/An%C3%A1lisis_de_Markov

• Revista Ecosistemas http://www.revistaecosistemas.net/pdfs/433.pdf