Model Markov Hidden – Wikipedia

before-content-x4

Przejścia stanu w ukrytym modelu Markowa (przykład)
X – Stan ukryty
I – Obserwowalne wyjście
A – Prawdopodobieństwo przejścia
B – Prawdopodobieństwo wyjścia

I Model Markov ukryty ( Ukryty model Markowa – Hmm) to łańcuch Markowa, w którym stany nie są bezpośrednio obserwowalne. Dokładniej:

  • Łańcuch ma wiele stanów
  • Stany ewoluują zgodnie z łańcuchem Markowa
  • Każdy stan generuje zdarzenie z pewnym rozkładem prawdopodobieństwa, które zależy tylko od stanu
  • Wydarzenie jest obserwowalne, ale stan nie
after-content-x4

Ukryte modele Markowa są szczególnie znane z ich zastosowań w rozpoznawaniu czasowego schematu przemówień mówionych, pisma ręcznego, w rozpoznawaniu tekstur i bioinformatyki (na przykład HMMER).

Istnieje 3 kanoniczne problemy związane z HMM:

  • Podaj parametry modelu, oblicz prawdopodobieństwo konkretnej sekwencji wyjścia. Ten problem jest rozwiązany przez algorytm Forward.
  • Podaj parametry modelu, znajdź najbardziej prawdopodobną sekwencję, że może wygenerować daną sekwencję wyjścia. Problem ten jest rozwiązany przez algorytm Viterbi (Andrea Viterbi).
  • Biorąc pod uwagę sekwencję wyjścia lub zestaw tych sekwencji, znajdź najbardziej prawdopodobny zestaw, dla którego można zadeklarować prawdopodobieństwo wyjścia i przejścia. Oznacza to „szkolenie” parametrów HMMM podanych przez grupę danych związanych z sekwencjami. Ten problem jest rozwiązany przez algorytm Baum-Velch.

Zastanów się nad dwoma przyjaciółmi, Alice i Bobem, którzy mieszkają daleko i rozmawiają codziennie przez telefon o tym, co zrobili w ciągu dnia. Bob wykonuje tylko trzy zajęcia: idzie po parku, robi zakupy i czyści swoje mieszkanie. Wybór tego, co należy zrobić wyłącznie w czasie atmosferycznym. Alice nie wie, co od Boba, kiedy do niego dzwoni, ale wie, co robi Bob każdego dnia. Na podstawie tego, co robi Bob, Alice próbuje zgadnąć, która godzina była tam, gdzie mieszka Bob.

Istnieją dwa stany, „deszcz” i „słońce”, ale Alice nie może ich obserwować bezpośrednio, to znaczy są ukryte. Każdego dnia istnieje pewne prawdopodobieństwo, że Bob wykonuje jedną z następujących czynności, w zależności od czasu: spaceru, sklep lub czyszczenie. Ponieważ Bob rozmawia z Alice o swoich działaniach, są to obserwacje. Cały system jest systemem ukrytego modelu Markowa.

Alice wie, jaki jest ogólny trend czasu, w którym mieszka Bob i co lubi średnio Bob. Innymi słowy, znane są parametry HMM, które można reprezentować w następujący sposób w języku programowania Pythona:

Państwa  =  ( 'Deszcz' W  'Podeszwa' )  obserwacje  =  ( 'chodzić' W  'zakupy' W  'czysty' )  prawdopodobieństwo_inial  =  { 'Deszcz' :  0,6 W  'Podeszwa' :  0,4 }  prawdopodobieństwo_transition  =  {  'Deszcz'  :  { 'Deszcz' :  0,7 W  'Podeszwa' :  0,3 },  'Podeszwa'  :  { 'Deszcz' :  0,4 W  'Podeszwa' :  0,6 },  }  prawdopodobieństwo_emmisji  =  {  'Deszcz'  :  { 'chodzić' :  0.1 W  'zakupy' :  0,4 W  'czysty' :  0,5 },  'Podeszwa'  :  { 'chodzić' :  0,6 W  'zakupy' :  0,3 W  'czysty' :  0.1 },  }  

Gdzie prawdopodobieństwo_inial Reprezentuje prawdopodobieństwo każdego z dwóch stanów HMM Rain/Sun, kiedy Bob to nazywa (w istocie wie, że tam, gdzie Bob żyje klimat, jest deszczowy: w 60%). prawdopodobieństwo_ otransation Reprezentuje prawdopodobieństwo, że jutro będzie padać/jest słońce uwarunkowane faktem, że dziś pada/jest słońce. W tym przykładzie istnieje 30% możliwości, że następnego dnia będzie Słońce, jeśli pada dzisiaj. prawdopodobieństwo___emmisji Reprezentuje prawdopodobieństwo, że Bob umożliwia pewną aktywność z trzech możliwych. Jeśli pada deszcz, istnieje 50% prawdopodobieństwa, że ​​czyści swoje mieszkanie; Jeśli jest słońce, 60% prawdopodobnie będzie poza chodzeniem.

Alice może obliczyć najbardziej prawdopodobną sekwencję stanów ukrytych w następnych dniach, znając te trzy dane, mnożąc prawdopodobieństwo przejścia z powodu prawdopodobieństwa wydania każdego dnia i dodanie wartości.

after-content-x4

Gdzie

I = I ( 0 ) W I ( Pierwszy ) W W I ( L Pierwszy ) {DisplayStyle y = y (0), y (1), kropki i (l-1)}

jest to uporządkowany zestaw wydarzeń i

X = X ( 0 ) W X ( Pierwszy ) W W X ( L Pierwszy ) {DisplayStyle x = x (0), x (1), kropki, x (l-1),}

Jest to uporządkowany zestaw ukrytych państw.

  • Rozpoznawanie słowa, tekstury i ruchu ciała, czytanie optyczne postaci
  • Synteza wokalna
  • Bioinformatyka i badanie genomu
  • Prognozowanie regionów kodujących w sekwencji genomu
  • Modelowanie rodzin białkowych lub rodzin generalnych
  • Prognoza elementów wtórnych struktury z pierwotnych sekwencji białka

Ukryte modele Markowa zostały po raz pierwszy opisane w serii badań statystycznych przez Leonarda E. Bauma i innych autorów w drugiej połowie lat sześćdziesiątych. Jednym z pierwszych aplikacji HMMS było rozpoznawanie tego słowa, począwszy od lat siedemdziesiątych.

W drugiej połowie lat osiemdziesiątych HMMS sekwencji biologicznych zaczęły stosować HMM, w szczególności DNA. Od tego czasu ta metoda stała się bardzo pomocna w dziedzinie bioinformatyki.

after-content-x4