1 / 31

Maschinelles Lernen

Maschinelles Lernen. Hidden Markov Modelle (HMM) (Rabiner Tutorial). Grundidee. Finde zu einer Beobachtung (Serie von Beobachtungen) die zugrundeliegende „Struktur“ Basis: stochastisches Modell basierend auf Markov-Ketten (jedes Ereignis ist nur von seinem Vorgänger abhängig) Anwendungen:

portia
Download Presentation

Maschinelles Lernen

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Maschinelles Lernen Hidden Markov Modelle (HMM) (Rabiner Tutorial)

  2. Grundidee • Finde zu einer Beobachtung (Serie von Beobachtungen) die zugrundeliegende „Struktur“ • Basis: stochastisches Modell basierend auf Markov-Ketten (jedes Ereignis ist nur von seinem Vorgänger abhängig) • Anwendungen: • Spracherkennung • Tagging • Ziehen von bunten Kugeln aus verschiedenen Urnen hinter einer Wand

  3. Geschichte • benannt nach Andrei A. Markov (1856 - 1922) ihrem Entwickler • Markov Modelle anfänglich für linguistische Zwecke • Modellieren von Buchstabensequenzen in der russischen Literatur (1913) • später Entwicklung als allgemeines statistisches Werkzeug

  4. Markov-Ketten • Sequenz von Zufallsvariablen X = (X1, ...,XT) • Xt+1 hängt ab vom Wert von Xt • X1,...,Xt-1 braucht man nicht zu kennen • Beispiel: Zufallsvariable misst Anzahl der Bücher einer Bibliothek • Um „Anzahl der Bücher morgen“ vorhersagen zu können, genügt es „Anzahl der Bücher heute“ zu kennen. • Die Anzahl der Bücher der letzten Woche oder sogar der letzten Jahre benötigt man für die Vorhersage nicht.

  5. Definitionen • Stochastischer Prozess: • Ein stochstischer Prozess oder Zufallsprozess ist eine Folge von elementaren Zufallsereignissen • Zustände: • Die möglichen Zufallswerte in einem stochastischen Prozess heißen Zustände des Prozesses.Man sagt, dass sich der Prozess zum Zeitpunkt t in Zustand Xt=St befindet.

  6. Stochastischer Prozess • Für die vollständige Beschreibung eines Zufallsprozesses mit diskretem Zeitparameter benötigt man • die Anfangswahrscheinlichkeit:die für jeden Zustand angibt, mit welcher Wahrscheinlichkeit er als Zustand X1=Si beobachtet werden kann (d.h. den Startzustand bildet) • die Übergangswahscheinlichkeit:die für jeden Zustand angibt, mit welcher Wahrscheinlichkeit er in einer Zustandsfolge auftritt:

  7. Beispiel • Ein Textgenerator hat ein Lexikon mit Wörtern • von denen an jeder Position jedes auftreten kann Ω = {geschickt, werden, wir} • wir beobachten an jeder Position, welches Wort generiert wurde • Sei • X1 das Wort zum ersten Beobachtungszeitpunkt • X2 das Wort zum zweiten Beobachtungszeitpunkt, usw. • Dann ist die Folge der Wörter ein stochastischer Prozess mit diskreter Zufallsvariable und diskretem Zeitparameter

  8. Markov-Kette • Eine Markov-Kette ist ein spezieller stochastischer Prozess, bei dem zu jedem Zeitpunkt die Wahrscheinlichkeiten aller zukünftigen Zustände nur vom momentanen Zustand abhängt (= Markov-Eigenschaft) • d.h. es gilt: • Für eine endliche Markov-Kette gibt es endlich viele Zustände, und die Kette muss sich zu jedem Zeitpunkt in einem dieser endlich vielen Zustände befinden

  9. Markov-Kette kann beschrieben werden durch die Angaben • Stochastische Übergangsmatrix A • Anfangswahrscheinlichkeiten Manning/Schütze, 2000: 318

  10. Markov-Kette kann beschrieben werden durch einen Zustandsübergangsgraphen .5 .3 wir .4 .3 .2 .4 werden .3 .3 .4 .4 geschickt .2 .3

  11. Markov-Kette Wahrscheinlichkeit der Sequenz der Zustände X1 … XT für eine Markov-Kette gilt:

  12. Markov-Kette Wahrscheinlichkeit der Sequenz der Zustände X1 … XT

  13. Markov-Modell (MM) • Ein Markov-Modell ordnet jedem Zustand (andere Variante: jedem Zustandsübergang) eine Ausgabe zu, die ausschließlich vom aktuellen Zustand (bzw. Zustandsübergang) abhängig ist • Ausgabe: Sequenz von Ereignissen, die die Beobachtungen in der Beobachtungssequenz repräsentieren • Zur Unterscheidung auch Visible Markov Model (VMM) genannt

  14. Hidden Markov Modell (HMM) • Konzept des Markov Models wird erweitert: • Beobachtung ist Wahrscheinlichkeitsfunktion des Zustandes • Emissionswahrscheinlichkeiten für Beobachtung werden benötigt • Wahrscheinlichkeit, dass zur Zeit t das Symbol k beobachtet wird, • unter der Vorraussetzung, dass das Model sich zur Zeit t im Zustand Si befindet und als nächstes (zum Zeitpunkt t + 1) in den Zustand Sj übergeht. • Ein Hidden Markov Model ist ein Markov-Modell • bei dem nur die Sequenz der Ausgaben beobachtbar ist, • die Sequenz der Zustände verborgen bleibt • Es kann mehrere Zustandssequenzen geben, die dieselbe Ausgabe erzeugen

  15. Hidden Markov-Modell: Beispiel • in einem Text lassen sich nur die Ausgaben (= produzierte Wörter) beobachten (visible): orange • die Sequenz von Zuständen (= Wortarten), die die Wörter ausgeben, (Satzmuster) lässt sich nicht beobachten (hidden): blau • mehrere Sequenzen können dieselbe Ausgabe erzeugen: .3 .4 .2 .3 .3 .2 nomn auxv part nomn kopv adje .2 .2 .3 .4 .5 .2 wir werden geschickt wir werden geschickt .3 x .2 x .4 x .3 x .2 x .4 =0.000576 .3 x .2 x .3 x .5 x .2 x .2 =0.000360

  16. Hidden Markov-Modell: Definition Formal spezifiziert durch Fünf-Tupel Menge der Zustände Ausgabe-Alphabet Wahrscheinlichkeitender Startzustände Wahrscheinlichkeitender Zustandsübergänge Wahrscheinlichkeitender Symbolemissionen Manning/Schütze, 2000: 326

  17. HMM • Es gibt 3 Probleme zu lösen: • Dekodierung: Wahrscheinlichkeit einer Beobachtung finden • brute force • Forward-Algorithmus / Backward-Algorithmus • Beste Pfad-Sequenz finden • brute force • Viterbi-Algorithmus • Training: Aufbau des besten Modells aus Trainingsdaten • Forward-Backward Algorithmus • Baum-Welch Algorithmus

  18. HMM: • „Brute force“-Bestimmung der Wahrscheinlichkeit einer Beobachtunsgsequenz für ein gegebenes Modell: • Für alle möglichen Zustandsfolgen • Berechnung der Wahrscheinlichkeit der Beobachtungen • Summierung der Wahrscheinlichkeiten state transition symbol emission

  19. HMM: Lösungsweg 1: brute force: Effizienz T Anzahl der Beobachtungen N Anzahl der Zustände Lösungsweg ist hoffnungslos ineffizient Benötigt im allgemeinen Fall, d.h. - Start in jedem Zustand möglich, - Jeder Zustand kann auf jeden folgen (2T + 1) x NT+1 Multiplikationen Manning/Schütze, 2000: 326

  20. HMM: • Alternative: Merken partieller Ergebnisse: • Forward Procedure oder Backward Procedure • Forward-Procedure wird beschrieben durch die Forward-Variable • Wahrscheinlichkeit dass die partielle Observationssequenz O1 bis Ot-1 ausgegeben wurde und dass die HMM zur Zeit t sich im Zustand Si befindet, unter der Bedingung des Modells μ.

  21. Forward Procedure • Die Vorwärts-Wahrscheinlichkeit αj(t+1) • ergibt sich aus der Summe des Produktes • der Wahrscheinlichkeiten jedes • reinkommenden Bogens mit der Forward- • Variable des ausgehenden Knotens. • 1. Initialisierung • 2. Induktion • 3. Total

  22. Backward Procedure • Ähnlich wie Forward Procedure: • Beschrieben durch Backward Variable • Wahrscheinlichkeit dass der Rest der Observationssequenz Ot bis OT ausgegeben wird unter der Bedingung dass sich das HMM zur Zeit t im Zustand Si befindet und des Modells μ • Die Backward-Variable βi(t) wird zur Zeit t im Knoten Si gespeichert • Die Rückwärtswahrscheinlichkeit βi(t) ergibt sich aus der Summe des Produktes der Wahrscheinlichkeiten jedes ausgehenden Bogens mit der Rückwärtswahrscheinlichkeit des erreichten Knotens

  23. Backward-Procedure • 1.Initialisierung • 2. Induktion • 3. Total • Für die Berechnung von P(O|μ) kann auch die Kombination von • Forward- und Backward-Procedure verwendet werden.

  24. HMM: Beste Pfadsequenz • Brute force: Berechnung aller möglichen Pfade • Viterbi-Algorithmus: • Speichere zu jedem Zeitpunkt nur den bis dahin optimalen Pfad zu jedem Zustand wir|Adje werden|Adje geschickt|Adje wir|AuxV werden|AuxV geschickt|AuxV wir|KopV werden|KopV geschickt|KopV wir|Nomn werden|Nomn geschickt|Nomn wir|Part werden|Part geschickt|Part

  25. HMM: Training gegeben eine Sequenz von BeobachtungenIn einem Trainingscorpus gesucht ein Modell das für die beobachteten Sequenzen im Trainingscorpus die maximalen Wahrscheinlichkeiten erzeugt • Mögliche Verfahren: • Baum-Welch Algorithmus • Forward-Backward Algorithmus

  26. Baum-Welch Algorithmus • Spezialfall des EM (Expectation Maximization) Algorithmus • Iterativer Algorithmus: versucht ein beliebig gewähltes Start-Modell 0 hinsichtlich OTraining zu optimieren • Mittels Berechnungen herausfinden, welche Transitionen und Symbolemissionen bei Ausgabesequenz O wahrscheinlich am häufigsten genutzt werden. • Erhalten eines überarbeiteten Models μ´ durch Erhöhen dieser Wahrscheinlichkeiten

  27. Baum-Welch-Algorithmus • 1. Berechnungen: • pt(i,j) ist die Wahrscheinlichkeit, dass • der Bogen von Zustand Si nach Zustand • Sj zur Zeit t passiert wird, gegeben das • Modell μ und die Observationssequenz O. • ist Wahrscheinlichkeit, dass das • HMM sich zur Zeit t im Zustand Si • befindet.

  28. Baum-Welch-Algorithmus • Ist die erwartete Anzahl der Transitionen vom Zustand Si bei der Ausgabesequenz O. • Ist die erwartete Anzahl der Transitionen vom Zustand Si zum Zustand Sj bei der Ausgabesequenz O. • 2. Neuberechnung der Wahrscheinlichkeiten • 1. Startwahrscheinlichkeiten – • erwartete Häufigkeit im Zustand Si zur Zeit t = 1 zu sein • 2. Transitionswahrscheinlichkeiten –

  29. Baum-Welch-Algorithmus • 3. Emissionswahrscheinlichkeiten • Mit den Neuberechnungen der Wahrscheinlichkeiten erhalten wir aus dem Model ein neues Model , so dass gilt:

  30. Baum-Welch-Algorithmus • Die Iteration erfolgt solange, bis keine signifikante Verbesserung der Ergebnisse mehr sichtbar ist. • Der Baum-Welch-Algorithmus garantiert nicht, dass das beste Modell gefunden wird, da der Prozess in einem lokalen Maximum stecken bleiben kann (z.B. Sattelpunkt). • Baum-Welch-Algorithmus ist dennoch effektiv für HMMs. • Für das Finden des globalen Maximums sollten die Parameter des Ausgangs HMMs in der Region nahe des globalen Maximums liegen. • Anfängliches Abschätzen der Werte ist besser als zufälliges Wählen.Schätzen von B ist dabei wichtig. Zufälliges Wählen von A und Π ist ausreichend.

  31. Beziehung zu Bayes • Vermeidung der Unabhängigkeitsannahme: • Interpretiere Abhängigkeiten der Features als Übergangswahrscheinlichkeiten der Zustände • Features entsprechen Zuständen • Bayesian (Belief) Network!

More Related