[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/model-markov-hidden-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/model-markov-hidden-wikipedia\/","headline":"Model Markov Hidden – Wikipedia","name":"Model Markov Hidden – Wikipedia","description":"before-content-x4 Przej\u015bcia stanu w ukrytym modelu Markowa (przyk\u0142ad) X – Stan ukryty I – Obserwowalne wyj\u015bcie A – Prawdopodobie\u0144stwo przej\u015bcia","datePublished":"2022-10-02","dateModified":"2022-10-02","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/d\/d5\/Hmm.png\/310px-Hmm.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/d\/d5\/Hmm.png\/310px-Hmm.png","height":"234","width":"310"},"url":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/model-markov-hidden-wikipedia\/","wordCount":2139,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Przej\u015bcia stanu w ukrytym modelu Markowa (przyk\u0142ad) X – Stan ukryty I – Obserwowalne wyj\u015bcie A – Prawdopodobie\u0144stwo przej\u015bcia B – Prawdopodobie\u0144stwo wyj\u015bcia I Model Markov ukryty ( Ukryty model Markowa – Hmm) to \u0142a\u0144cuch Markowa, w kt\u00f3rym stany nie s\u0105 bezpo\u015brednio obserwowalne. Dok\u0142adniej: \u0141a\u0144cuch ma wiele stan\u00f3w Stany ewoluuj\u0105 zgodnie z \u0142a\u0144cuchem Markowa Ka\u017cdy stan generuje zdarzenie z pewnym rozk\u0142adem prawdopodobie\u0144stwa, kt\u00f3re zale\u017cy tylko od stanu Wydarzenie jest obserwowalne, ale stan nie (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Ukryte modele Markowa s\u0105 szczeg\u00f3lnie znane z ich zastosowa\u0144 w rozpoznawaniu czasowego schematu przem\u00f3wie\u0144 m\u00f3wionych, pisma r\u0119cznego, w rozpoznawaniu tekstur i bioinformatyki (na przyk\u0142ad HMMER). Istnieje 3 kanoniczne problemy zwi\u0105zane z HMM: Podaj parametry modelu, oblicz prawdopodobie\u0144stwo konkretnej sekwencji wyj\u015bcia. Ten problem jest rozwi\u0105zany przez algorytm Forward. Podaj parametry modelu, znajd\u017a najbardziej prawdopodobn\u0105 sekwencj\u0119, \u017ce mo\u017ce wygenerowa\u0107 dan\u0105 sekwencj\u0119 wyj\u015bcia. Problem ten jest rozwi\u0105zany przez algorytm Viterbi (Andrea Viterbi). Bior\u0105c pod uwag\u0119 sekwencj\u0119 wyj\u015bcia lub zestaw tych sekwencji, znajd\u017a najbardziej prawdopodobny zestaw, dla kt\u00f3rego mo\u017cna zadeklarowa\u0107 prawdopodobie\u0144stwo wyj\u015bcia i przej\u015bcia. Oznacza to \u201eszkolenie\u201d parametr\u00f3w HMMM podanych przez grup\u0119 danych zwi\u0105zanych z sekwencjami. Ten problem jest rozwi\u0105zany przez algorytm Baum-Velch. Zastan\u00f3w si\u0119 nad dwoma przyjaci\u00f3\u0142mi, Alice i Bobem, kt\u00f3rzy mieszkaj\u0105 daleko i rozmawiaj\u0105 codziennie przez telefon o tym, co zrobili w ci\u0105gu dnia. Bob wykonuje tylko trzy zaj\u0119cia: idzie po parku, robi zakupy i czy\u015bci swoje mieszkanie. Wyb\u00f3r tego, co nale\u017cy zrobi\u0107 wy\u0142\u0105cznie w czasie atmosferycznym. Alice nie wie, co od Boba, kiedy do niego dzwoni, ale wie, co robi Bob ka\u017cdego dnia. Na podstawie tego, co robi Bob, Alice pr\u00f3buje zgadn\u0105\u0107, kt\u00f3ra godzina by\u0142a tam, gdzie mieszka Bob. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Istniej\u0105 dwa stany, \u201edeszcz\u201d i \u201es\u0142o\u0144ce\u201d, ale Alice nie mo\u017ce ich obserwowa\u0107 bezpo\u015brednio, to znaczy s\u0105 ukryte. Ka\u017cdego dnia istnieje pewne prawdopodobie\u0144stwo, \u017ce Bob wykonuje jedn\u0105 z nast\u0119puj\u0105cych czynno\u015bci, w zale\u017cno\u015bci od czasu: spaceru, sklep lub czyszczenie. Poniewa\u017c Bob rozmawia z Alice o swoich dzia\u0142aniach, s\u0105 to obserwacje. Ca\u0142y system jest systemem ukrytego modelu Markowa. Alice wie, jaki jest og\u00f3lny trend czasu, w kt\u00f3rym mieszka Bob i co lubi \u015brednio Bob. Innymi s\u0142owy, znane s\u0105 parametry HMM, kt\u00f3re mo\u017cna reprezentowa\u0107 w nast\u0119puj\u0105cy spos\u00f3b w j\u0119zyku programowania Pythona: Pa\u0144stwa = ( 'Deszcz' W 'Podeszwa' ) obserwacje = ( 'chodzi\u0107' W 'zakupy' W 'czysty' ) prawdopodobie\u0144stwo_inial = { 'Deszcz' : 0,6 W 'Podeszwa' : 0,4 } prawdopodobie\u0144stwo_transition = { 'Deszcz' : { 'Deszcz' : 0,7 W 'Podeszwa' : 0,3 }, 'Podeszwa' : { 'Deszcz' : 0,4 W 'Podeszwa' : 0,6 }, } prawdopodobie\u0144stwo_emmisji = { 'Deszcz' : { 'chodzi\u0107' : 0.1 W 'zakupy' : 0,4 W 'czysty' : 0,5 }, 'Podeszwa' : { 'chodzi\u0107' : 0,6 W 'zakupy' : 0,3 W 'czysty' : 0.1 }, } Gdzie prawdopodobie\u0144stwo_inial Reprezentuje prawdopodobie\u0144stwo ka\u017cdego z dw\u00f3ch stan\u00f3w HMM Rain\/Sun, kiedy Bob to nazywa (w istocie wie, \u017ce tam, gdzie Bob \u017cyje klimat, jest deszczowy: w 60%). prawdopodobie\u0144stwo_ otransation Reprezentuje prawdopodobie\u0144stwo, \u017ce jutro b\u0119dzie pada\u0107\/jest s\u0142o\u0144ce uwarunkowane faktem, \u017ce dzi\u015b pada\/jest s\u0142o\u0144ce. W tym przyk\u0142adzie istnieje 30% mo\u017cliwo\u015bci, \u017ce nast\u0119pnego dnia b\u0119dzie S\u0142o\u0144ce, je\u015bli pada dzisiaj. prawdopodobie\u0144stwo___emmisji Reprezentuje prawdopodobie\u0144stwo, \u017ce Bob umo\u017cliwia pewn\u0105 aktywno\u015b\u0107 z trzech mo\u017cliwych. Je\u015bli pada deszcz, istnieje 50% prawdopodobie\u0144stwa, \u017ce \u200b\u200bczy\u015bci swoje mieszkanie; Je\u015bli jest s\u0142o\u0144ce, 60% prawdopodobnie b\u0119dzie poza chodzeniem. Alice mo\u017ce obliczy\u0107 najbardziej prawdopodobn\u0105 sekwencj\u0119 stan\u00f3w ukrytych w nast\u0119pnych dniach, znaj\u0105c te trzy dane, mno\u017c\u0105c prawdopodobie\u0144stwo przej\u015bcia z powodu prawdopodobie\u0144stwa wydania ka\u017cdego dnia i dodanie warto\u015bci. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4P ( I ) = \u2211 XP ( I \u2223 X ) P ( X ) W {DisplayStyle p (y) = sum _ {x} p (ymid x) p (x) ,,} Gdzie I = I ( 0 ) W I ( Pierwszy ) W … W I ( L – Pierwszy ) {DisplayStyle y = y (0), y (1), kropki i (l-1)} jest to uporz\u0105dkowany zestaw wydarze\u0144 i X = X ( 0 ) W X ( Pierwszy ) W … W X ( L – Pierwszy ) {DisplayStyle x = x (0), x (1), kropki, x (l-1),} Jest to uporz\u0105dkowany zestaw ukrytych pa\u0144stw. Rozpoznawanie s\u0142owa, tekstury i ruchu cia\u0142a, czytanie optyczne postaci Synteza wokalna Bioinformatyka i badanie genomu Prognozowanie region\u00f3w koduj\u0105cych w sekwencji genomu Modelowanie rodzin bia\u0142kowych lub rodzin generalnych Prognoza element\u00f3w wt\u00f3rnych struktury z pierwotnych sekwencji bia\u0142ka Ukryte modele Markowa zosta\u0142y po raz pierwszy opisane w serii bada\u0144 statystycznych przez Leonarda E. Bauma i innych autor\u00f3w w drugiej po\u0142owie lat sze\u015b\u0107dziesi\u0105tych. Jednym z pierwszych aplikacji HMMS by\u0142o rozpoznawanie tego s\u0142owa, pocz\u0105wszy od lat siedemdziesi\u0105tych. W drugiej po\u0142owie lat osiemdziesi\u0105tych HMMS sekwencji biologicznych zacz\u0119\u0142y stosowa\u0107 HMM, w szczeg\u00f3lno\u015bci DNA. Od tego czasu ta metoda sta\u0142a si\u0119 bardzo pomocna w dziedzinie bioinformatyki. Stuart J. Russell, Peter Norvig, Rozdzia\u0142 15 Probabilistyczne rozumowanie w czasie , w S. gaburri (\u015bwiadomy), Sztuczna inteligencja. Nowoczesne podej\u015bcie (2) , 2. edycja, Pearson Education W\u0142ochy, 2005, ISBN 978-88-7192-229-4. URL skonsultowano si\u0119 z 1 lutego 2010 r. . ( W ) Lawrence R. Rabiner, Samouczek na temat ukrytych modeli Markowa i wybranych aplikacji w rozpoznawaniu mowy . Post\u0119powanie IEEE , 77 (2), s. 1 257\u2013286, luty 1989. ( W ) Bartolucci F., Farcomeni A. i Pennoni F., Utajone modele Markowa dla danych pod\u0142u\u017cnych , Chapman and Hall\/CRC, 2013, ISBN 978-14-3981-708-7. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/model-markov-hidden-wikipedia\/#breadcrumbitem","name":"Model Markov Hidden – Wikipedia"}}]}]