Presentation is loading. Please wait.

Presentation is loading. Please wait.

教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .

Similar presentations


Presentation on theme: "教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  ."— Presentation transcript:

1 教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  

2 Mathematical Learning Theory
混合正規分布 w = (ak , bk ,σk) K k=1 1 (2πσk2)N/2 || x – bk ||2 2σk2 p(x|w) = ∑ ak       exp( - ) K k=1 平均 bk ,分散σk2 の       正規分布 ∑ ak = 1 2018/12/31 Mathematical Learning Theory

3 Mathematical Learning Theory
混合正規分布 平均 bk ,分散σk2 の正規分布の比 {ak} の和 2018/12/31 Mathematical Learning Theory

4 Mathematical Learning Theory
隠れ変数(潜在変数)   1 (2πσk2)N/2 || x – bk ||2 2σk2 K k=1 p(x|w) = ∑ ak      exp( - ) y について和をとると一致   1 (2πσk2)N/2 || x – bk ||2 2σk2 K k=1 p(x,y|w) = Π [ ak      exp( - ) ] yk y = (y1,y2,..,yk )はひとつだけ1で残りは0。つまり y ∈{(1,0,..,0), (0,1,0,…,0),…,(0,0,…,1)} 2018/12/31 Mathematical Learning Theory

5 Mathematical Learning Theory
変分ベイズ法1 ベイズ法では、事後分布を作る必要がある。 n i=1 p(w|xn) = (1/Z) φ(w) Π p(xi |w) (隠れ変数、パラメータ)の事後分布を求めて yn について和をとればよい。 n i=1 p(yn,w | xn) = (1/Z) φ(w) Π p(xi,yi|w) (隠れ変数、パラメータ)の事後分布を r(yn)s(w) で近似する。 p(yn,w | xn) ≒r(yn)s(w) 2018/12/31 Mathematical Learning Theory

6 Mathematical Learning Theory
変分ベイズ法2 r(yn)s(w)と事後分布のカルバックライブラ距離の最小化する。 L(r,s)=∫∫ r(yn)s(w) log ( r(yn)s(w) / p(yn,w|xn) ) dyn dw この最小化問題は、(r,s)のどちらか一方が与えられていれば、 もう一方は解ける。・・・再帰的に解くことにする。 局所解の問題があるが、以下では L(r,s) を最小化できる場合を考える。 もしも yn と w が独立ならば、min L(r,s)=0。 変分ベイズ法だけでは min L(r,s) の値はわからない。 2018/12/31 Mathematical Learning Theory

7 Mathematical Learning Theory
問題1 真2個、学習モデル2個の場合を考える。 隠れ変数とパラメータはいつ独立に近いか。 r(yn) s(w) ? p(yn,w | xn) 2018/12/31 Mathematical Learning Theory

8 Mathematical Learning Theory
問題2 真の分布が ↓ のとき 変分ベイズの結果は 2018/12/31 Mathematical Learning Theory


Download ppt "教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  ."

Similar presentations


Ads by Google