論文紹介 “Data Spectroscopy: Learning mixture models using eigenspaces of convolution operators” (ICML 2008) ─ by Tao Shi, Mikhail Belkin, and Bin Yu IBM東京基礎研究所.

Slides:



Advertisements
Similar presentations
Mathematica による固有値計算の高速化 Eigenvalue calculation speed by Mathematica 情報工学部 06A2055 平塚翔太.
Advertisements

Absolute Orientation. Absolute Orientation の問題 二つの座標系の間における剛体 (rigid body) 変換を復元す る問題である。 例えば: 2 台のステレオカメラから得られた3次元情報の間の関 係を推定する問題。 2 台のステレオカメラから得られた3次元情報の間の関.
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
数理統計学 西 山. 前回の問題 ある高校の 1 年生からランダムに 5 名を選 んで 50 メートル走の記録をとると、 、 、 、 、 だった。学年全体の平均を推定しなさい. 信頼係数は90%とする。 当分、 は元の分散と一致 していると仮定する.
0章 数学基礎.
データ解析
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
数理統計学(第四回) 分散の性質と重要な法則
確率と統計 平成23年12月8日 (徐々に統計へ戻ります).
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
Pattern Recognition and Machine Learning 1.5 決定理論
4.3 連立1次方程式   Ax = b   (23) と書くことができる。
統計解析 第9回 第9章 正規分布、第11章 理論分布.
大数の法則 平均 m の母集団から n 個のデータ xi をサンプリングする n 個のデータの平均 <x>
時空間データからのオブジェクトベース知識発見
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
IT入門B2 ー 連立一次方程式 ー.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
線形代数学 4.行列式 吉村 裕一.
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
第12章 連続潜在変数 修士 1年 村下 昇平.
【小暮研究会2】 「ベイズのアルゴリズム」:序章 【1,2:計量経済分析と統計分析】 【 3:ベイズ定理】
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
高次元データの解析 -平均ベクトルに関する検定統計量の 漸近分布に対する共分散構造の影響-
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
スペクトル法の一部の基礎の初歩への はじめの一歩
第9章 混合モデルとEM 修士2年 北川直樹.
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
正規分布確率密度関数.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第14章 モデルの結合 修士2年 山川佳洋.
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
訓練データとテストデータが 異なる分布に従う場合の学習
「R入門」  5.7 行列に対する諸機能  10月23日 (木) 発表者 大城亜里沙.
独立成分分析 (ICA:Independent Component Analysis )
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
主成分分析 Principal Component Analysis PCA
“Regression on Manifolds using Kernel Dimension Reduction” by Jens Nilsson, Fei Sha, and Michael I. Jordan IBM東京基礎研究所 井手剛 | 2007/08/20 | ICML
数理統計学 西 山.
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
Additive Combinatrics 7
Data Clustering: A Review
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
プロセスデータ解析学5 -主成分分析- 担当:長谷部伸治     金 尚弘.
ガウシアン確率伝搬法の 近似精度に対する理論解析
Core Technology Center
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
データ解析 静岡大学工学部 安藤和敏
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
Le Lu, Rene Vidal John Hopkins University (担当:猪口)
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
◎小堀 智弘,菊池 浩明(東海大学大学院) 寺田 真敏(日立製作所)
精密工学科プログラミング基礎 第7回資料 (11/27実施)
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
第3章 統計的推定 (その2) 統計学 2006年度 <修正・補足版>.
精密工学科プログラミング基礎Ⅱ 第2回資料 今回の授業で習得してほしいこと: 配列の使い方 (今回は1次元,次回は2次元をやります.)
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

論文紹介 “Data Spectroscopy: Learning mixture models using eigenspaces of convolution operators” (ICML 2008) ─ by Tao Shi, Mikhail Belkin, and Bin Yu IBM東京基礎研究所 井手 剛 | 2008/09/12 | T-PRIMAL勉強会

論文の概要 解きたい問題: 多峰性のある分布の密度推定 どうやってそれをやるか “Spectroscpy (分光学)” ときた 具体的には、混合正規分布のパラメター推定 混合数、各クラスタの平均ベクトルと共分散行列 どうやってそれをやるか ガウシアン・カーネルの行列の固有値分解を行う 固有値、固有ベクトルを、上記のパラメターと結びつけることができる “Spectroscpy (分光学)” ときた | 2008/09/12 | T-PRIMAL勉強会

何が面白い(と思った)か ガウシアンカーネルの難しげな解析解が世の中に役に立つ現場を目撃できる カーネル行列の固有ベクトルについての新たな理解が得られる EM推定の初期値を決める際の一手法として役に立つかもしれない 1次元、N=1000、ふたつの山に不釣合いあり k-means (k=2) よりはずっと推定精度がよい 混合重み、平均、分散の見積もり | 2008/09/12 | T-PRIMAL勉強会

目次 まずは分布が1次元の単一正規分布の時 次に分布がd次元の単一正規分布の時 一般の混合分布の時 実験的評価 Sec. 2. single component in R 次に分布がd次元の単一正規分布の時 Sec. 3. single component in Rd 一般の混合分布の時 Sec. 4. Spectroscopic estimation for mixtures of Gaussians 実験的評価 Sec.5. Simulations and experiments | 2008/09/12 | T-PRIMAL勉強会

目次 まずは分布が1次元の単一正規分布の時 次に分布がd次元の単一正規分布の時 一般の混合分布の時 実験的評価 Sec. 2. single component in R 次に分布がd次元の単一正規分布の時 Sec. 3. single component in Rd 一般の混合分布の時 Sec. 4. Spectroscopic estimation for mixtures of Gaussians 実験的評価 Sec.5. Simulations and experiments | 2008/09/12 | T-PRIMAL勉強会

1次元ガウシアン・カーネルと、その固有関数の定義 Kの固有関数の定義 測度 p(x)dx の下での固有方程式 | 2008/09/12 | T-PRIMAL勉強会

1次元ガウシアン・カーネルの固有値と固有関数は解析的に知られている 固有関数の解析的な形 もし測度 p が 単一の正規分布 N(x | μ, σ2) ならば、i = 0, 1, 2, … に対し 定数a, b, c も、σとωの関数として解析的に与えられる(本文参照) 固有値の解析的な形 に対して エルミート多項式 正規分布 σ: 正規分布の幅 ω: カーネルの幅 | 2008/09/12 | T-PRIMAL勉強会

何らかの方法で固有値がわかれば、σは逆算可能 固有値の表式(再掲) カーネルの幅ωが与えられた時、σを推定することができる ただし、固有値がわかっているという前提。 λ0とλ1を使えば、 ではどうやって固有値を求めるのか σ: 正規分布の幅 ω: カーネルの幅 ただし | 2008/09/12 | T-PRIMAL勉強会

経験分布を使えば、関数の固有方程式は行列の固有方程式になる 関数についての固有方程式の定義 経験分布を入れる 固有方程式をデータ点 y = x(m) で評価することで、結局、行列の固有方程式になる ただし | 2008/09/12 | T-PRIMAL勉強会

固有ベクトルがわかれば、μも計算可能 最上位の固有関数は、正規分布 p(x) を若干修正したものと一致する 0次のエルミート多項式は H0 = 1 であるため したがって、最上位の固有ベクトルにおいて、山を探せばμがわかる μ ≒ x(s) ただし s: 最大値を与えるインデックス なお、Kは正値行列なので、固有ベクトルの成分はすべて正 Perron-Frobeniusの定理 | 2008/09/12 | T-PRIMAL勉強会

ここまでのまとめ pとして経験分布を使いさえすれば、データから固有値と固有関数を計算することが可能 これはデータがどういう分布に従っていようとも可能 特に、もし、データが1次元の単一正規分布に従っていると信じられる理由があるなら、 最上位の2つの1固有値の比から分散σを計算できる 最上位の固有ベクトルの成分をスキャンすることで、平均μを計算できる | 2008/09/12 | T-PRIMAL勉強会

目次 まずは分布が1次元の単一正規分布の時 次に分布がd次元の単一正規分布の時 一般の混合分布の時 実験的評価 Sec. 2. single component in R 次に分布がd次元の単一正規分布の時 Sec. 3. single component in Rd 一般の混合分布の時 Sec. 4. Spectroscopic estimation for mixtures of Gaussians 実験的評価 Sec.5. Simulations and experiments | 2008/09/12 | T-PRIMAL勉強会

p(x)がd個の独立な分布の積になっていれば、d個の独立な問題を解けばいい この時は、固有関数もまた各部分の直積で表される d 個の独立な1次元の固有値問題を解けばいい d 個の独立な1次元の固有値問題を解けばいい | 2008/09/12 | T-PRIMAL勉強会

d次元のそれぞれが独立でなくても、平均ベクトルμの推定は容易 多次元でも、empiricalバージョンの固有方程式は変わらない 独立でなくても、「xがμの時に密度関数が最大値をとる」という事実は変わらない Kの最上位の固有ベクトルv0の「山」を探せば、その位置がμの推定値 μ≒ x(s) ただしsは、 v0 (x(s)) が最大になるようなインデックス ただし | 2008/09/12 | T-PRIMAL勉強会

Σの推定は、求められた d+1個の固有ベクトルから、線形回帰を介して行える 共分散行列Σは未知だが、とりあえず次のスペクトル分解を仮定する {ui}で張られる空間で考えると、固有関数はd個の独立な1次元問題の直積となる {ui}は未知であるが、この基底の下での固有ベクトル(≒固有関数)なら求められる なぜなら、この空間で考えてもカーネル行列はもとと同じだから (∵ 回転不変性) 最上位の固有ベクトルv0と、その次のd個の固有ベクトルw1 , w2 , …, wdを求める 正確にはwjは、「その第n成分がx(n)にほぼ比例しているような固有ベクトル」 1次のエルミート多項式H1(x)がxの線形関数であることを用いると、基底 {ui} を線形回帰で求めることができる Algorithm 2 参照 | 2008/09/12 | T-PRIMAL勉強会

目次 まずは分布が1次元の単一正規分布の時 次に分布がd次元の単一正規分布の時 一般の混合分布の時 実験的評価 Sec. 2. single component in R 次に分布がd次元の単一正規分布の時 Sec. 3. single component in Rd 一般の混合分布の時 Sec. 4. Spectroscopic estimation for mixtures of Gaussians 実験的評価 Sec.5. Simulations and experiments | 2008/09/12 | T-PRIMAL勉強会

それぞれの山がある程度離れていれば、個々の山について問題を解けばよい 固有ベクトルを求めると、勝手に分離してくれる | 2008/09/12 | T-PRIMAL勉強会

ただし、「山の分離が十分」という仮定が必要 山の分離が十分でない時は? → どういう方法を使うにせよ、どうしようもない “there does not exist a computationally feasible method for estimating parameters of a mixture distribution in several dimensions without a separation assumption.” | 2008/09/12 | T-PRIMAL勉強会

目次 まずは分布が1次元の単一正規分布の時 次に分布がd次元の単一正規分布の時 一般の混合分布の時 実験的評価 Sec. 2. single component in R 次に分布がd次元の単一正規分布の時 Sec. 3. single component in Rd 一般の混合分布の時 Sec. 4. Spectroscopic estimation for mixtures of Gaussians 実験的評価 Sec.5. Simulations and experiments | 2008/09/12 | T-PRIMAL勉強会

実験1: 人工的に作った5次元、3混合正規分布 山の分離がこの程度でもパラメター推定は一応正確 カーネルの幅ωは0.1と手で決める。 N=3000、データ生成→推定を50回繰り返す (残りの3つの次元はノイズ) | 2008/09/12 | T-PRIMAL勉強会

実験2: USPS手書き数字のクラスタリングへの応用 それなりに正確にクラスタリングできている 実験条件 N=1866、d=256(16×16ピクセル) 「3」が658個、「4」が652、「5」が556 カーネルの幅ω=2 実験方法 Kの固有ベクトルのうち、すべての要素が同符号のものを上位から3つ選ぶ 各固有ベクトルはクラスターに対応しているはずなので、要素をスキャンして、最大の要素を探し、それを山のラベルとする 実験結果 第1、第16、第49番目の固有ベクトルが同符号条件を満たす クラスタリングは結構うまくいっている overall accuracy = 93% 他の手法との比較がないので何ともいえないところもある v1 v16 v49 | 2008/09/12 | T-PRIMAL勉強会

おしまい。 | 2008/09/12 | T-PRIMAL勉強会