Download presentation
Presentation is loading. Please wait.
1
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513 Email twada@ieee
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513 講義資料は 単純クラスタリング、k-meansクラスタリング、最大距離アルゴリズム、 EMアルゴリズム
2
クラスタリング ー似たものをまとめる処理ー
クラスタ(Cluster)=塊(かたまり) Clustering = クラスタを作る処理
3
クラスタリング =教師なし学習 どのクラスに属するかが明示的に示されていないトレーニングデータに、データ間の類似性もしくは相違性に基づいてクラスラベルを付けていくこと。つまり、教師信号は与えられない。 この問題を解くには、何らかの仮定を導入する必要がある。
4
クラスタリングアルゴリズムの分類 階層型クラスタリング 非階層型クラスタリング 凝集型アルゴリズム 分割型アルゴリズム
個々のデータがクラスタの状態からスタートして,クラスタの併合を繰り返してクラスタを形成する方法. 分割型アルゴリズム データ集合全体が一つのクラスタの状態からスタートして,分割を繰り返すことでクラスタリングする方法 非階層型クラスタリング 上記に当てはまらないクラスタリング クラスタリングの良さを表す目的関数を最適化するものもある.
5
凝集型と分割型の計算量
6
距離が決まればクラスタリングできる クラスタ間の距離が定義されれば, という処理を反復するだけでクラスタリングが出来る.
距離を最小化するクラスタのペアをマージする, 距離が最大になるようにクラスタを2分割する, という処理を反復するだけでクラスタリングが出来る.
7
集合間距離
8
クラスタリングの統合的枠組み:Lance-Williamsの更新式
単リンク 完全リンク 重心間距離 群平均 Ward
9
空間の濃縮と拡散 と呼ぶ. クラスタが大きくなるほど併合しやすくなることを空間濃縮 クラスタが大きくなるほど併合しにくくなることを空間拡散
この中間を空間保存 と呼ぶ. 空間濃縮 空間保存 空間拡散 単リンク 群平均,重心 完全リンク,Ward
10
非階層的クラスタリング
11
単純クラスタリング 同一クラスタに属するパターン間の距離に関する制約を設ける
中心からの距離がT以内に存在するパターンを一つのクラスタとする。 T以上離れている場合は、新しいクラスタ中心となる。 T T T T T
12
単純クラスタリング 同一クラスタに属するパターン間の距離に関する制約を設ける
13
単純クラスタリング 同一クラスタに属するパターン間の距離に関する制約を設ける
欠点: データを与える順序に依存した結果しか得られない 閾値Tを知る方法がない。
14
K-Meansクラスタリング クラスタ数をあらかじめ決めておく
クラスタ中心をランダムに決めておき、 クラスタ中心からの距離を基にしてそのデータの帰属クラスタを決め データの帰属性をもとにしてクラスタ中心を再計算する クラスタ中心が移動していれば、2に戻る。
15
K-Meansクラスタリング クラスタ数をあらかじめ決めておく
16
K-Meansクラスタリングデモ
17
K-Meansクラスタリング クラスタ数をあらかじめ決めておく
欠点 クラスタ数を既知としなければならない。 初期値に依存して結果が変わる。 計算が収束しない場合がある。
18
ISODATAアルゴリズム K-means アルゴリズムに という条件を加えたもの。
同じクラスタに属するサンプルが閾値未満の場合、そのクラスタを作らない。 クラスタ間距離が閾値未満の場合、それらのクラスタをまとめる クラスタ内の分散が大きくなりすぎるとクラスタを分割する という条件を加えたもの。 Tou, Julius T. and Rafael C. Gonzalez Pattern Recognition Principles. Addison-Wesley Publishing Co.
19
最大距離アルゴリズム 最大クラスタ間距離を基準として、クラスタ間距離に関する制約を設ける
各クラスタ間の距離が最大クラスタ間距離のn/m以上になるようにクラスタリングを行う。
20
最大距離アルゴリズム 最大クラスタ間距離を基準として、クラスタ間距離に関する制約を設ける
21
他のクラスタリング手法 グラフを用いたクラスタリング(最小全域木を用いたクラスタリングなど) Fuzzy クラスタリング
階層的クラスタリング EMアルゴリズム その他
22
混合(確率密度)分布 サンプルが複数の分布の重み付き和に従うとき サンプルxkからこのξjとθjを求めることができれば、
分布形状が決定できる。ちなみに、mは既知である。 各xkに関して、どのjの分布に従うかを決めることが できれば、通常の最尤推定が適用できる。 不完全データ 完全 データ
23
EM アルゴリズムの概要 E (Expectation) ステップ : 次で定義される完全データの対数尤度
の条件付き期待値 を計算する.(ここでは、 と見なす。) 具体的な計算方法は後に述べる。 M (Maximization) ステップ : を について 最大化した ものを とおき、t=t+1として1に戻る。
24
E step の詳細 分布モデル X がJ番目の要素分布に従う確率を とすると これによって重み付けをした尤度の和として、
が得られる。この式を最大化するξkとθkを求める。
25
M step の詳細 問題: という条件の下で、 を 最大化する を求める。
最大化する を求める。 に Lagrange の未定係数項を加えて式の変形をしていくと、結果 的に、次式が得られる。 Θkに関してはこ の式から求める。
26
M step の詳細:混合正規分布の場合
27
混合正規分布のあてはめ EM\MixtureEMj.html
Similar presentations
© 2024 slidesplayer.net Inc.
All rights reserved.