HMM:隠れマルコフモデル 電子情報工学科 伊庭 斉志 奈良女子大集中講義 バイオインフォマティクス (6)

Slides:



Advertisements
Similar presentations
プログラミング言語論 第10回(演習) 情報工学科 木村昌臣   篠埜 功.
Advertisements

パターン認識入門.
奈良女子大集中講義 バイオインフォマティクス (3) 配列アラインメント
生命情報学基礎論 (2) 配列の比較と相同性検索
阿久津 達也 京都大学 化学研究所 バイオインフォマティクスセンター
情報生命科学特別講義III (1) 文字列マッチング
コンパイラ 2011年10月17日
菊池自由エネルギーに対する CCCPアルゴリズムの拡張
奈良女子大集中講義 バイオインフォマティクス (8) タンパク質立体構造予測
マルコフ連鎖モンテカルロ法がひらく確率の世界
計算の理論 I 決定性有限オートマトン(DFA) と 非決定性有限オートマトン(NFA)
分子生物情報学 動的計画法に基づく配列比較法 (ペアワイズアライメント法)
奈良女子大集中講義 バイオインフォマティクス (6) モチーフ発見・隠れマルコフモデル
部分木に基づくマルコフ確率場と言語解析への適用
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
情報の扱いのける 数学的基礎 確率 エントロピー 統計 確率分布 形式言語理論 計算量の理論.
時空間データからのオブジェクトベース知識発見
雑音重み推定と音声 GMMを用いた雑音除去
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
京都大学 化学研究所 バイオインフォマティクスセンター
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
コンパイラ 2012年10月15日
京都大学 化学研究所 バイオインフォマティクスセンター
第13章 系列データ 修士 1年 村下 昇平.
奈良女子大集中講義 バイオインフォマティクス (10) スケールフリーネットワーク
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
集中講義(東京大学)「化学システム工学特論第3」 バイオインフォマティクス的手法による 化合物の性質予測(3) 配列アライメント
決定木とランダムフォレスト 和田 俊和.
奈良女子大集中講義 バイオインフォマティクス (9) 相互作用推定
数理科学特別講義 バイオインフォマティクスにおける 確率モデル
第9章 混合モデルとEM 修士2年 北川直樹.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Online Decoding of Markov Models under Latency Constraints
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
生  物  数  学 斉木 里恵.
分子生物情報学(2) 配列のマルチプルアライメント法
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
系列ラベリングのための前向き後ろ向きアルゴリズムの一般化
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
様々な情報源(4章).
電機情報工学専門実験 6. 強化学習シミュレーション
ベイジアンネットワーク概説 Loopy Belief Propagation 茨城大学工学部 佐々木稔
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
隠れマルコフモデルによる 時系列気象画像からの知識発見
第3章 線形回帰モデル 修士1年 山田 孝太郎.
経営学研究科 M1年 学籍番号 speedster
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
VOCAL DYNAMICS CONTROLLER: 歌声のF0動特性をノート単位で編集し, 合成できるインタフェース
京都大学 化学研究所 バイオインフォマティクスセンター
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
人工知能特論II 第8回 二宮 崇.
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
奈良女子大集中講義 バイオインフォマティクス (7) 進化系統樹
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
コンパイラ 2012年10月11日
阿久津 達也 京都大学 化学研究所 バイオインフォマティクスセンター
非決定性有限オートマトン 状態の有限集合 入力記号の有限集合 注意 動作関数 初期状態 受理状態の有限集合.
情報生命科学特別講義III (3)たたみ込みとハッシュに 基づくマッチング
Q状態イジング模型を用いた多値画像修復における 周辺尤度最大化によるハイパパラメータ推定
集中講義(東京大学)「化学システム工学特論第3」 バイオインフォマティクス的手法による化合物の性質予測(1) バイオインフォマティクス概観
配列解析アルゴリズム特論 配列アライメントI
分子生物情報学(0) バイオインフォマティクス
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

HMM:隠れマルコフモデル 電子情報工学科 伊庭 斉志 奈良女子大集中講義 バイオインフォマティクス (6) 伊庭 斉志 奈良女子大集中講義 バイオインフォマティクス (6) モチーフ発見・隠れマルコフモデル 阿久津 達也 京都大学 化学研究所 バイオインフォマティクスセンター

マルコフモデルと 隠れマルコフモデル ek(b) : S → Σ 一次マルコフ連鎖 隠れマルコフモデル(Hidden MM:HMM) 状態集合    S={1,2,…n} 遷移確率(k→l) akl 隠れマルコフモデル(Hidden MM:HMM) 出力記号集合Σ 出力確率(状態から出力記号への写像) ek(b) : S → Σ

隠れマルコフモデル(HMM) ek(b) HMM≒有限オートマトン+確率 定義 出力記号集合Σ 状態集合 S={1,2,…n} akl 出力確率 ek(b) 開始状態 終了状態

マルコフモデルの例 P(‘Rain’|‘Dry’)=0.2, P(‘Dry’|‘Dry’)=0.8 Rain Dry 0.7 0.3 0.2 0.8 2つの状態: ‘Rain’ と ‘Dry’. 推移確率:    P(‘Rain’|‘Rain’)=0.3 , P(‘Dry’|‘Rain’)=0.7 ,     P(‘Rain’|‘Dry’)=0.2, P(‘Dry’|‘Dry’)=0.8 初期確率: P(‘Rain’)=0.4 , P(‘Dry’)=0.6 .

計算例 P(‘Rain’|’Rain’) P(‘Rain’|’Dry’) P(‘Dry’|’Dry’) P(‘Dry’)= 0.7 0.3 0.2 0.8 マルコフ性から 例えば、{‘Dry’,’Dry’,’Rain’,Rain’}の状態列の確率は、 P({‘Dry’,’Dry’,’Rain’,Rain’} ) = P(‘Rain’|’Rain’) P(‘Rain’|’Dry’) P(‘Dry’|’Dry’) P(‘Dry’)= = 0.3*0.2*0.8*0.6

隠れマルコフモデルの例 Low High 0.7 0.3 0.2 0.8 0.6 0.6 0.4 0.4 Rain Dry

隠れマルコフモデルの例 P(‘Low’|‘Low’)=0.3 , P(‘High’|‘Low’)=0.7 , 2つの状態: ‘Low’ と ‘High’ (気圧) 2つの観測 : ‘Rain’ と‘Dry’. 推移確率:   P(‘Low’|‘Low’)=0.3 , P(‘High’|‘Low’)=0.7 ,        P(‘Low’|‘High’)=0.2, P(‘High’|‘High’)=0.8 観測確率 :   P(‘Rain’|‘Low’)=0.6 , P(‘Dry’|‘Low’)=0.4 ,   P(‘Rain’|‘High’)=0.4 , P(‘Dry’|‘High’)=0.3 . 初期確率: P(‘Low’)=0.4 , P(‘High’)=0.6 .

隠れマルコフモデルの例 Low High 0.7 0.3 0.2 0.8 0.6 0.6 0.4 0.4 出力記号 Rain Dry

計算例 {‘Dry’,’Rain’}のような観測列がえられる確率は? すべての可能な隠れ状態列の確率を求める   P({‘Dry’,’Rain’} ) =    P({‘Dry’,’Rain’} , {‘Low’,’Low’}) +       P({‘Dry’,’Rain’} , {‘Low’,’High’}) +    P({‘Dry’,’Rain’} , {‘High’,’Low’}) +    P({‘Dry’,’Rain’} , {‘High’,’High’}) ただし:   P({‘Dry’,’Rain’} , {‘Low’,’Low’})=     P({‘Dry’,’Rain’} | {‘Low’,’Low’}) P({‘Low’,’Low’}) =     P(‘Dry’|’Low’)P(‘Rain’|’Low’) P(‘Low’)P(‘Low’|’Low)     = 0.4*0.4*0.6*0.4*0.3

HMMにおける基本アルゴリズム Viterbiアルゴリズム Baum-Welchアルゴリズム (EMアルゴリズム) 出力記号列から   状態列を推定 構文解析 Baum-Welchアルゴリズム   (EMアルゴリズム)   パラメータを推定 学習

時々いかさまをするカジノ サイコロの出目だけが観測可能、どちらのサイコロを振っているかは観測不可能 サイコロの出目から、どちらのサイコロを振っているかを推定 6,2,6,6,3,6,6,6, 4,6,5,3,6,6,1,2 →不正サイコロ 6,1,5,3,2,4,6,3, 2,2,5,4,1,6,3,4 →公正サイコロ 6,6,3,6,5,6,6,1, 5,4,2,3,6,1,5,2 →途中で公正サイコロに交換

Viterbi アルゴリズム(1) 観測列(出力配列データ) x=x1…xLと状態列π=π1…πLが与えられた時、その同時確率は  P(x,π)=a0 π1Πeπi (xi)aπiπi+1 但し、πL+1=0 x が与えられた時、最も尤もらしい状態列は π*=argmaxπ P(x,π) 例:どちらのサイコロがいつ使われたかを推定

Viterbi アルゴリズム(2) x から、π*=argmaxπ P(x,π) を計算 そのためには x1…xi を出力し、状態 k に至る確率最大の状態列の確率 vk(i) を計算 vk(i)は以下の式に基づき動的計画法で計算

Viterbi アルゴリズム(3)

EM(Expectation Maximization)アルゴリズム 「欠けているデータ」のある場合の最尤推定のための一般的アルゴリズム 最大化は困難であるので、反復により尤度を単調増加させる(θtよりθt+1を計算) HMMの場合、「欠けているデータ」は状態列

EM(Expectation Maximization)アルゴリズムの導出

EM(Expectation Maximization)アルゴリズムの一般形 Q(θ|θt)=∑P(y|x, θt) log P(x,y|θ) を計算 Q(θ|θt)を最大化するθ*を計算し、     θt+1 = θ* とする。t=t+1とする Qが増大しなくなるまで、2,3を繰り返す

EM algorithm Start with initial estimate, θ0 Repeat until convergence E-step: calculate M-step: find

前向きアルゴリズム 配列 x の生成確率 P(x)=∑P(x,π) を計算 Viterbiアルゴリズムと類似 fk(i)=P(x1…xi,πi=k)  をDPにより計算

Viterbiと前向きアルゴリズム の比較 Viterbiアルゴリズム Forwardアルゴリズム

後向きアルゴリズム bk(i)= P(xi+1…xL|πi=k)  をDPにより計算 P(πi=k|x) = fk(i)bk(i)/P(x)

HMMに対するEMアルゴリズム (Baum-Welchアルゴリズム)

Baum-WelchのEMによる解釈