Upload
donald
View
50
Download
0
Embed Size (px)
DESCRIPTION
Maschinelles Lernen. Hidden Markov Modelle. Hidden Markov Modelle (HMMs). - PowerPoint PPT Presentation
Citation preview
Maschinelles Lernen
Hidden Markov Modelle
Seite 204/21/23|
Hidden Markov Modelle (HMMs)
InterpretationEin Zufallsprozess springt zwischen verschiedenen Zuständen hin und her und emittiert bei jedem Schritt ein Zeichen aus Ω, wobei die Emissionswahr-scheinlichkeit von vom zugrunde liegenden versteckten Zustand abhängt.
S = {1,2,3,4,5,6}
Ω = |R
DefinitionEin HMM besteht aus einer Markovkette w(t) (gegeben durch Menge der „versteckten“ Zustände S und die Übergangswahrscheinlichkeiten
A = (aij) = P(w(t+1)=i | w(t)=j), einem Ausgabealphabet Ω und einer Menge von Emissionswahrscheinlichkeiten
B = (bjk) = P(k wird emittiert | versteckter Zustand ist j).
Seite 304/21/23|
Hidden Markov Modelle (HMMs)
Eine besonders häufig verwendete Form von HMMs sind left-to-right Modelle. Sie werden z.B. bei der Spracherkennung oder der DNA Sequenzanalyse eingesetzt.
Start T A T A Ende
Es soll z.B. eine Transkriptionsfaktorbindestelle erkannt/modelliert werden, deren Sequenz nicht zu 100% mit einem bekannten Sequenzmotiv übereinstimmen muss, diesem aber möglichst gut ähnelt.
Versteckte Zustände
Gesehene Zeichenfolge
Seite 404/21/23|
Hidden Markov Modelle (HMMs)
Ein HMM definiert eine Wahrscheinlichkeitsverteilung auf der Menge aller Sequenzen mit Zeichen aus V:
Sei V = (v1,v2,…,vT) eine Sequenz von Zeichen aus Ω. Dieser Ausgabekette können verschiedene Ketten Q = (q1,q2,…,qT) von versteckten Zuständen aus S zugrunde liegen. Es gilt
T
ttq
T
ttt vbqvPQVP
t11
)( )|( )|(
)( )|(),()(),...,(),...,( 11
QPQVPQVPVPn
nn
n SqqQSqqQ
dabei ist
T
tqq
T
ttt tt
aqtwqtwPQP11
1 1))1(|)(()(
(der Bequemlichkeit halber definieren wir einen zusätzlichen Startzustand und einen Endzustand und geeignete Übergangswahrscheinlichkeiten), und
Seite 504/21/23|
Hidden Markov Modelle (HMMs)
Es gibt drei wesentliche Aufgaben zu lösen:
1. Auswertung. Gegeben ein HMM, berechne zu gegebener emittierter Sequenz V die Wahrscheinlichkeit, dass V durch das HMM generiert wurde.
2. Dekodierung. Gegeben ein HMM und eine emittierte Sequenz V, bestimme für jedes emittierte Zeichen den versteckten Zustand, der dieses Zeichen am wahrscheinlichsten emittiert hat.
3. Lernen eines HMMs Gegeben eine emittierte Sequenz V und eine Menge versteckter Zustände S, bestimme (optimiere) die Parameter eines HMMs, so dass V mit möglichst hoher Wahrscheinlichkeit von diesem HMM generiert wurde.
Forward Algorithmus, Backward Algorithmus
Viterbi Algorithmus
Baum-Welch Algorithmus
Seite 604/21/23|
Auswertung
Gegeben ein HMM, berechne zu gegebener emittierter Sequenz V die Wahrscheinlichkeit, dass V durch das HMM generiert wurde.
Eine naive Berechnung von P(V) bräuchte exponentiell viel Zeit in der Länge der Zeichenkette.
))(,,...,( 1 jtwvvP t
)(tj P( Es wird die Teilkette v1,…,vt emittiert,und zum Zeitpunkt t befindet sich die Kette im Zustand j )
))(,,...,( 1 jtwvvP Tt
)(tj P( Es wird die ‚Teilkette vt+1,…,vT emittiert,und zum Zeitpunkt t befindet sich die Kette im Zustand j )
Der Schlüssel zur effizienten Lösung aller drei HMM-Probleme liegt in der Definition folgender Wahrscheinlichkeiten:
Seite 704/21/23|
Auswertung
Seite 804/21/23|
Auswertung
Si
Si11
11
1)(
)|())(|)1(())(,,...,(
))(,,...,( )1(
tvjiji
tt
tj
bat
ivPitwjtwPitwvvP
jtwvvPt
αj(t+1) kann rekursiv berechnet werden durch
Dabei ist αj(0) definiert als αStartuistamd(0)=1 und αj(0)=0 sonst.
)(Endzustand T
Hieraus resultiert der Forward Algorithmus:
für alle jS
Seite 904/21/23|
Auswertung
Si
Si1
)(
)|())1(|)(())(,,...,(
))1(,,...,( )1(
tvijii
tTt
Ttj
bat
ivPjtwitwPitwvvP
jtwvvPt
Analog kann βj(t-1) rekursiv berechnet werden durch
Dabei ist αj(0) definiert als αStartuistamd(0)=1 und αj(0)=0 sonst.
Hieraus resultiert der Backward Algorithmus:
)0(ndStartzusta
für alle jS
Seite 1004/21/23|
Auswertung
Klassifikation.
Seien die Parameter aij und bjk eines HMMs durch Θ zusammengefasst. Der Forward- bzw. Backward Algorithmus liefert P(V| Θ) und vermöge der Bayes-Inversionsformel hat man bei emittierter Sequenz V
)(
)()|( )|(
VP
PVPVP
Liegen mehrere alternative Modelle Θm und ein Prior P(Θ) vor, so kann das wahrscheinlichste darunter ausgewählt werden (MAP-Schätzung).
Seite 1104/21/23|
Dekodierung
Gegeben ein HMM und eine emittierte Sequenz V, bestimme für jedes emittierte Zeichen den versteckten Zustand, der dieses Zeichen am wahrscheinlichsten emittiert hat.
Achtung: Es ist nicht die (primäre) Aufgabe, die Folge versteckter Zustände zu konstruieren, welche V am wahrscheinlichsten generiert hat.
Viterbi-Algorithmus
Seite 1204/21/23|
Dekodierung
Achtung: Für diesen Pfad Q kann P(Q)=0 gelten!
Seite 1304/21/23|
Lernen von HMMs
Gegeben eine emittierte Sequenz V und eine Menge versteckter Zustände S, bestimme (optimiere) die Parameter eines HMMs, so dass V mit möglichst hoher Wahrscheinlichkeit von diesem HMM generiert wurde.
Sei bereits ein HMM durch die Parameter Θ = {aij, bjk} gegeben. Wir berechnen
)|P(V
)( )1(
)|P(V
)|)(,,...,( )|)1(,,...,(
)|)/P(V|Vi,w(t)j,1)P(w(t
)V,|iw(t)j,1)P(w(t )(
j
111
tbat
jtwvvPbaitwvvP
t
t
t
jviji
Ttjvijt
ij
γij ist also die Wahrscheinlichkeit, dass im t-ten Schritt ein Übergang von Zustand i nach Zustand j vollzogen wird.
Seite 1404/21/23|
Lernen von HMMs
)|P(V
)( )1( )( j
tbatt tjviji
ij
Hieraus lassen sich wiederum die Übergangswahrscheinlichkeiten aij und die Emissionswahrscheinlichkeiten bjk neu schätzen:
t) Zeitpunktbel.(zu k bel. einemzu i von Übergänge#
t) Zeitpunktbel.(zu jnach i von Übergänge# )( taij
T
1 Sk
1
)(
)(
tik
T
tij
t
t
T
1t
T
k v1,t
)(
)(
bel.nach j von Übergänge#
wurdeemittiert k denen bei bel.,nach j von Übergänge# )(
t
Smjm
Smjm
jk
t
t
tb
Seite 1504/21/23|
Lernen von HMMs
Seite 1604/21/23|
Anwendung von HMMs
Seite 1704/21/23|
Anwendung von HMMs
Seite 1804/21/23|
Vor- und Nachteile von HMMs