Was ist der Unterschied zwischen Markov-Kettenmodellen und versteckten Markov-Modellen? Ich habe in Wikipedia gelesen, konnte aber die Unterschiede nicht verstehen.Was ist der Unterschied zwischen Markov Ketten und Hidden Markov Modell?
Antwort
Um dies anhand eines Beispiels zu erklären, verwende ich ein Beispiel aus der Verarbeitung natürlicher Sprache. Stellen Sie sich die Wahrscheinlichkeit dieses Satzes wissen wollen:
P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)
Nun stellen wir wollten:
Ich genieße Kaffee
In einem Markov-Modell ist, wird seine Wahrscheinlichkeit durch Berechnung abschätzen könnte kennen die Teile-of-speech-Tags dieses Satzes, das heißt, wenn ein Wort ein Imperfekt verb ist, ein Substantiv, usw.
Wir nicht irgendwelche Teile-of-sp beobachten Eech Tags in diesem Satz, aber wir davon ausgehen, sie sind da. Daher berechnen wir, was die Wahrscheinlichkeit für die Sequenz der Wortarten ist. In unserem Fall ist die tatsächliche Sequenz ist:
PRP-VBP-NN
Aber warten Sie! Dies ist eine Sequenz, auf die wir ein Markov-Modell anwenden können. Aber wir nennen es versteckt, da die Teile der Sprache niemals direkt beobachtet werden. Natürlich werden wir in der Praxis viele solcher Sequenzen berechnen, und wir möchten die verborgene Sequenz finden, die unsere Beobachtung am besten erklärt (z. B. werden wir Wörter wie "das", "dieses", das aus dem DET) tag)
Die beste Erklärung, die ich je erlebt habe in einem Papier von 1989 von Lawrence R. Rabiner ist: http://www.cs.ubc.ca/~murphyk/Bayes/rabiner.pdf
Ein Hidden-Markov-Modell ist ein doppelter eingebetteter stochastischer Prozess mit zwei Ebenen.
Die obere Ebene ist ein Markov-Prozess und die Zustände sind nicht beobachtbar.
Tatsächlich ist die Beobachtung eine probabilistische Funktion der oberen Markov-Zustände.
Verschiedene Markov-Zustände haben unterschiedliche Beobachtungsfunktionalitäten.
Markov-Modell ist ein Zustand Maschine mit den Statusänderungen Wahrscheinlichkeiten. In einem versteckten Markov-Modell kennen Sie die Wahrscheinlichkeiten nicht, aber Sie kennen die Ergebnisse.
Zum Beispiel, wenn Sie eine Münze werfen, können Sie die Wahrscheinlichkeiten erhalten, aber, wenn Sie die Flips nicht sehen konnten und jemand einen von fünf Fingern mit jedem Münzwurf bewegt, könnten Sie die Fingerbewegungen nehmen und a verstecktes Markov-Modell, um die beste Schätzung von Münzwürfen zu erhalten.
da Matt Teile-of-speech-Tags als HMM Beispiel verwendet wird, könnte ich hinzufügen, eine mehr Beispiel: Spracherkennung. Fast alle LVCSR-Systeme (Continuous Speech Recognition) mit großem Vokabular basieren auf HMMs.
"Matts Beispiel": Ich genieße Kaffee
In einem Markov-Modell, Sie ihre Wahrscheinlichkeit durch Berechnung abschätzen konnten:
P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)
In einem Hidden-Markov-Modell,
Sagen wir, 30 verschiedene Leute lesen den Satz "I genieß dich umarmen " und wir müssen es erkennen. Jeder Mensch wird diesen Satz anders aussprechen. Wir wissen also NICHT, ob die Person "umarmen" oder "hoggen" bedeutet. Wir werden nur die probabilistische Verteilung des tatsächlichen Wortes haben.
Kurz gesagt, ein verstecktes Markov-Modell ist ein statistisches Markov-Modell, in dem angenommen wird, dass das zu modellierende System ein Markov-Prozess mit unbeobachteten (verborgenen) Zuständen ist.
Sie sollten die Antwort mit den meisten Stimmen akzeptieren. – Ron