第9章 混合モデルとEM 修士2年 北川直樹.

Slides:



Advertisements
Similar presentations
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
Advertisements

潜在クラス分析入門 山口和範. 内容 条件付独立 シンプソンのパラドックス 対数線形モデルにおける表現 局所独立 潜在変数モデル Lem 入門.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
データ解析
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
コンピュータビジョン特論 第8回対象追跡 2006年11月22日 加藤丈和.
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
Scalable Collaborative Filtering Using Cluster-based Smoothing
Pattern Recognition and Machine Learning 1.5 決定理論
統計解析 第9回 第9章 正規分布、第11章 理論分布.
Bassモデルにおける 最尤法を用いたパラメータ推定
情報の扱いのける 数学的基礎 確率 エントロピー 統計 確率分布 形式言語理論 計算量の理論.
時空間データからのオブジェクトベース知識発見
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
回帰分析.
ベイズ的ロジスティックモデル に関する研究
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
第12章 連続潜在変数 修士 1年 村下 昇平.
京都大学 化学研究所 バイオインフォマティクスセンター
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
【小暮研究会2】 「ベイズのアルゴリズム」:序章 【1,2:計量経済分析と統計分析】 【 3:ベイズ定理】
第4章 線形識別モデル 修士2年 松村草也.
第13章 系列データ 修士 1年 村下 昇平.
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
相関分析.
データ解析 静岡大学工学部 安藤和敏
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
決定木とランダムフォレスト 和田 俊和.
領域ベースの隠れ変数を用いた画像領域分割
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
第14章 モデルの結合 修士2年 山川佳洋.
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
構造情報に基づく特徴量を用いた グラフマッチングによる物体識別 情報工学科 藤吉研究室  EP02086 永橋知行.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
パターン認識と機械学習 第2章:確率分布(後半)
主成分分析 Principal Component Analysis PCA
25. Randomized Algorithms
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
Data Clustering: A Review
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
部分的最小二乗回帰 Partial Least Squares Regression PLS
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
経営学研究科 M1年 学籍番号 speedster
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
人工知能特論II 第8回 二宮 崇.
ポッツスピン型隠れ変数による画像領域分割
確率と統計2007(最終回) 平成20年1月17日(木) 東京工科大学 亀田弘之.
領域ベースの隠れ変数を用いた決定論的画像領域分割
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

第9章 混合モデルとEM 修士2年 北川直樹

この章で学ぶこと ある赤のデータ分布p(x)がある. これは3つの青のガウス分布N(X|μk,Σk)が集まっている. では,どんな平均μkと分散Σkを持つガウス分布がどの割合πkで集まった分布か? これをEMアルゴリズムで推定しよう.

目次 9.1 K-meansクラスタリング 9.2 混合ガウス分布 9.3 EMアルゴリズムのもう一つの解釈 9.4 一般のEMアルゴリズム 9.1.1 画像分割と画像圧縮 9.2 混合ガウス分布 9.2.1 最尤推定 9.2.2 混合ガウス分布のEMアルゴリズム 9.3 EMアルゴリズムのもう一つの解釈 9.3.1 混合ガウス分布再訪 9.3.2 K-meansとの関係 9.3.3 混合ベルヌーイ分布 9.3.4 ベイズ線形回帰に関するEMアルゴリズム 9.4 一般のEMアルゴリズム

9.1 K-meansクラスタリング N個のデータ集合{x1,…xn}をK個のクラスターに分割する. Kの値は既知とする. クラスターとは、データ点間距離が小さいグループを表す. μkをk番目クラスターの中心をする。 各クラスターに存在するデータからμkへの二乗距離の総和を最小にする.

9.1 K-meansクラスタリング データ点のクラスターへの割り当てを表現する. 各データxnに対応する二値指示変数rnk∈{0,1} (k=1,…K)を定める. xnがクラスターkに割り当てられる場合rnk=1,j≠kの場合はrnj=0とする. これを一対K符号化法という. 目的変数Jを定義する.

9.1 K-meansクラスタリング これは,歪み尺度とも呼ばれる. Jを最小にするrnkとμkを求める. μkを固定して,Jを最小化するrnkを求める. rnkを固定して,Jを最小化するμkを求める. 収束するまで繰り返す.

9.1 K-meansクラスタリング μkを固定した上で,rnkの決定を考える. rnk=1としたときに||xn-μk||が最小になるkに対して,rnkを選んで1とする. つまり,n番目のデータ点を最も近いクラスター中心に割り当てる.

9.1 K-meansクラスタリング rnkを固定した下で,μkを最適化する. 目的関数Jはμkの二次関数なので偏微分=0を解くと最小化できる. μkについて解くと, k番目クラスターに割り当てられた全データの平均値である.→K-meansアルゴリズム

9.1 K-meansクラスタリング 2クラスターに分割 (a)×印はμ1とμ2の初期選択を表す. (b)各データを近いクラスターに割り当てる. (c)割り当てられたデータの平均値をクラスターの中心とする. (d)収束するまで繰り返す.

9.1.1 画像分割と画像圧縮 画像分割の目的は,一つの画像を複数の領域に分割すること. 画像の画素は,赤,青,緑の3つ組. 各画素ベクトルを割り当てられてクラスター中心{R,G,B}で置き換える. つまり,K色のみのパレットを用いる.

9.1.1 画像分割と画像圧縮 クラスタリングを画像圧縮に使う. N個のデータ点について,各々が割り当てられるクラスターkの情報を保存する. クラスターkの中心μkの値を保存する必要があるが,K≪Nならば少ないデータ数で済む. つまり,各データを最も近い中心μkで近似する. この枠組みをベクトル量子化,μkを符号表ベクトルと呼ぶ.

9.2 混合ガウス分布 離散的な潜在変数を用いた混合ガウス分布を定式化する. K次元の2値確率変数zを導入する. 1つのzkだけ1,他は0の1-of-K表現 zkは,zk∈{0,1}かつΣkzk=1を満たす. Zの周辺分布は,混合係数πkで定まる. x 1 2 3 4 5 π 0.4 0.2 k z

9.2 混合ガウス分布 ただし,パラメータπkは以下を満たす. Zは,1-of-K表現なので, Zの値が与えられた下でのxの条件付き確率は, これは、以下の形にも書ける.

9.2 混合ガウス分布 Xの周辺分布は,zの取り得る状態全ての 総和を取り,以下となる. これは,混合ガウス分布と同じ形である. こうして,潜在変数を含む別な混合ガウス分布の表現をした. これにより、EMアルゴリズムの単純化ができる.

9.2 混合ガウス分布 Xが与えられた下でのzの条件付き確率はγ(zk)はベイズの定理を用いて得られる. πkはzk=1なる事象の事前確率,γ(zk)はxを観測したときの事後確率 γ(zk)は,混合要素kがxの観測を説明する程度を表す負荷率

9.2 混合ガウス分布 (a) 同時分布p(z)p(x|z)からのサンプル. (b) 同サンプルを周辺分布(x)から生成. Zの値を無視し,xの値のみ描写. (c) 同サンプルの負担率γ(znk)を表現 γ(znk)(k=1,2,3)に比例する量の赤,青,緑のインク

9.2.1 最尤推定 観測したデータ集合{x1,…xN}に混合ガウス分布を当てはめる. 混合ガウス分布は以下の通りである. このとき,対数尤度関数は以下のように表せる.

9.2.2 混合ガウス分布のEMアルゴリズム 尤度関数の最大点が満たす条件 対数尤度lnp(X|π,μ,Σ)をガウス要素の平均μkに関して微分し,0とおくと, 負担率が自然と右辺に現れる. 両辺にΣkを掛けて整理すると,

9.2.2 混合ガウス分布のEMアルゴリズム Nkは,k番目クラスターに割り当てられたデータの実効的な数である. データ点xnの重み係数は,k番目ガウス要素がxnを生成を負担した事後確率γ(znk)である.

9.2.2 混合ガウス分布のEMアルゴリズム 対数尤度lnp(X|π,μ,Σ)をΣkに関して微分して0とおき,整理すると, 共分散も,各データは負担した事後確率γ(znk)で重み付けられており,分母はk番目要素に割り当てられたデータの実効的な数である.

9.2.2 混合ガウス分布のEMアルゴリズム 最後に対数尤度lnp(X|π,μ,Σ)を混合係数について最大化する. このとき,各パラメータの総和が1であるという制約条件が必要なため,ラグランジュ未定係数法を用いる. 上記の式をπk(k=1,…K)で微分し0とおくと,

9.2.2 混合ガウス分布のEMアルゴリズム 両辺にπkを掛けてkについて和を取り, を用いると,λ=−Nが得られる. これを用いてλを消去し,変形すると, つまり,k番目要素の混合係数は,全データ数に対する,k番目要素に含まれるデータの負担率の総和である.

9.2.2 混合ガウス分布のEMアルゴリズム μk,Σk,πkをEMアルゴリズムを用いた最尤推定法で解を見付ける. 最初に,平均,分散,混合係数の初期値を選ぶ. Eステップ(expectation)では,初期パラメータを用いて負担率γ(znk)を計算する. Mステップ(maximization)では,負担率に基づき平均,分散,混合係数のパラメータを再計算する. 対数尤度,またはパラメータの変化量が閾値より小さくなったとき,収束したとする.

9.2.2 混合ガウス分布のEMアルゴリズム (a) 緑はデータ点の中心.青と赤の円は,ガウス分布の標準偏差の等高線. (b) 青と赤の両クラスターの負担率に比例したインクで描写. (c) 青のガウス分布の平均は,各データ点が持つ青インクの重み付き平均(重心).共分散は,インクの共分散である.

9.2.2 混合ガウス分布のEMアルゴリズム EMアルゴリズムは,K-meansより収束するまでの繰り返し回数と計算量が多い. そのため,混合ガウスモデルの初期値を発見するために,K-meansを実行した後,EMアルゴリズムを行う. 共分散は各クラスターのサンプル分散,混合係数は各クラスターに属する点の割合. ただし,一般に対数尤度は多数の極大値を持ち,EM解がその中で最大とは限らない.

9.3 EMアルゴリズムのもう一つの解釈 潜在変数を持つモデルの最尤解を見付けることがEMアルゴリズムの目的. データ集合をX,潜在変数の集合をZ,パラメータをθとする, 完全データ集合{X,Z}が与えられれば対数尤度関数の最大化ができる. しかし実際は,不完全データXのみ.

9.3 EMアルゴリズムのもう一つの解釈 完全データ尤度関数が使えないため,潜在変数の事後確率に関する期待値を考える. Eステップでは,現在のパラメータθoldを用いて潜在変数の事後分布p(Z|X,θold)を計算する. これを完全データ対数尤度lnp(X,Z|θ)の期待値Q(θ,θold)を計算するのに用いる. Mステップでは,この関数をθについて最大化し新しいθnewを決定する.

9.3.2 K-meansとの関係 K-meansとEMは,強い類似性がある. 混合ガウス分布に関するEMの極限としてK-meansを導出できる. 各ガウス要素の共分散がεの混合ガウス分布を考える. この形のK個混合ガウス分布のEMを考える. ただし,εは推定しない固定定数とする.

9.3.2 K-meansとの関係 データ点xnに関するk番目混合要素の負担率は, ε→0の極限を考えると,データ点xnに関する負担率γ(znk)は,||xn-μj||が最小となるj番目の要素が1に,その他は0に収束する. これにより,K-meansと同様にγ(znk)→rnkという{1,0}の割り当てが実現する. K-meansではクラスターの平均のみ推定し,分散は推定しないが,楕円K-meansアルゴリズムは{1,0}割り当てで分散も推定する.