ICML2006勉強会 2006年7月29日 局所フィッシャー判別分析 東京工業大学 計算工学専攻 杉山 将.

Slides:



Advertisements
Similar presentations
Absolute Orientation. Absolute Orientation の問題 二つの座標系の間における剛体 (rigid body) 変換を復元す る問題である。 例えば: 2 台のステレオカメラから得られた3次元情報の間の関 係を推定する問題。 2 台のステレオカメラから得られた3次元情報の間の関.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
到着時刻と燃料消費量を同時に最適化する船速・航路計画
コンピュータビジョン特論 第8回対象追跡 2006年11月22日 加藤丈和.
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
「わかりやすいパターン認識」 第1章:パターン認識とは
Data Clustering: A Review
Pattern Recognition and Machine Learning 1.5 決定理論
集積回路工学研究室 岩淵 勇樹 秋田 純一 北川 章夫
論文紹介 “Data Spectroscopy: Learning mixture models using eigenspaces of convolution operators” (ICML 2008) ─ by Tao Shi, Mikhail Belkin, and Bin Yu IBM東京基礎研究所.
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
時空間データからのオブジェクトベース知識発見
雑音重み推定と音声 GMMを用いた雑音除去
ゴールドバッハ予想と その類似について 5509046 嶋田 翔太 白柳研究室.
非線形方程式の近似解 (2分法,はさみうち法,Newton-Raphson法)
(ラプラス変換の復習) 教科書には相当する章はない
第4章 線形識別モデル 修士2年 松村草也.
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
高次元データの解析 -平均ベクトルに関する検定統計量の 漸近分布に対する共分散構造の影響-
Spectral Clustering による 語義曖昧性解消のための 教師あり類似度学習
PCAからICAへ? 狩野裕+清水昌平 (大阪大学人間科学部) 日本行動計量学会:東京大学 平成12年10月.
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
決定木とランダムフォレスト 和田 俊和.
視点移動カメラにおけるカメラキャリブレーション
ステレオカメラを用いた人の行動解析.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
Large Margin Component Analysis by Lorenzo Torresani, Kuang-chih Lee
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
利用関係に基づく類似度を用いたJavaコンポーネント分類ツールの作成
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
構造情報に基づく特徴量を用いた グラフマッチングによる物体識別 情報工学科 藤吉研究室  EP02086 永橋知行.
6. ラプラス変換.
訓練データとテストデータが 異なる分布に従う場合の学習
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
“Regression on Manifolds using Kernel Dimension Reduction” by Jens Nilsson, Fei Sha, and Michael I. Jordan IBM東京基礎研究所 井手剛 | 2007/08/20 | ICML
5母音の認識率(wの本数5) フレーム幅5、シフト幅2 全音素の認識率(wの本数5) フレーム幅5、シフト幅3
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
Data Clustering: A Review
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
Nightmare at Test Time: Robust Learning by Feature Deletion
適応的近傍を持つ シミュレーテッドアニーリングの性能
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
線形判別分析 Linear Discriminant Analysis LDA
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
楽器音を対象とした音源同定: 音高による音色変化を考慮する識別手法の検討
第3章 線形回帰モデル 修士1年 山田 孝太郎.
サポートベクターマシン Support Vector Machine SVM
秘匿リストマッチングプロトコルとその応用
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
半正定値計画問題(SDP)の 工学的応用について
ICML読む会資料 (鹿島担当) 教師ナシ の 構造→構造 マッピング 読んだ論文: Discriminative Unsupervised Learning of Structured Predictors Linli Xu (U. Waterloo) , … , Dale Schuurmans.
2008年6月5日 非線形方程式の近似解 2分法,はさみうち法,Newton-Raphson法)
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
目次 はじめに 収束性理論解析 数値実験 まとめ 特異値計算のための dqds 法 シフトによる収束の加速
市松模様を使用した カメラキャリブレーション
Presentation transcript:

ICML2006勉強会 2006年7月29日 局所フィッシャー判別分析 東京工業大学 計算工学専攻 杉山 将

次元削減 次元の呪い:高次元データは扱いにくい 次元数を削減したい 本発表では以下の設定を考える 線形次元削減: 教師付き次元削減:

クラス内多峰性 あるクラスのデータが多峰性である クラス1(青) クラス2(赤) 医療データ: ホルモンアンバランス(多い・少ない)vs.正常 数字認識: 偶数(0,2,4,6,8)vs.奇数(1,3,5,7,9) 多クラス分類: 一クラスvs.残りのクラス (one vs. rest)

本研究の目的 多峰性のデータをうまく埋め込みたい! クラス間分離性を最大化 クラス内多峰性を保存 クラス間分離性:OK クラス内多峰性:NG クラス間分離性:NG クラス内多峰性:OK クラス間分離性:OK クラス内多峰性:OK

フィッシャー判別分析 (FDA) クラス内散布行列: クラス間散布行列: FDA規準: クラス内散布を小さく クラス間散布の度合いを大きく Fisher (1936)

FDAの解釈 :クラス  の標本数 Pair-wise表現: 同じクラスの標本は近くに埋め込む 違うクラスの標本は遠くに埋め込む :全標本数

FDAの例 FDA はクラス内多峰性を考慮していない 注意: のため,FDAはC-1個 の特徴しか取り出せない 単純 ラベル混合クラスタ 近く 近く 近く 遠く 遠く 遠く FDA はクラス内多峰性を考慮していない 注意:           のため,FDAはC-1個  の特徴しか取り出せない :クラス数

局所性保存射影(LPP) 局所性行列: 類似度行列: 例) LPP規準: 元の空間で近くにある標本は近くに埋め込む 拘束条件は を避けるため He & Niyogi (NIPS2003) 局所性行列: 類似度行列: 例) LPP規準: 元の空間で近くにある標本は近くに埋め込む 拘束条件は      を避けるため

LPPの例 単純 ラベル混合クラスタ 多峰性 近く 近く 近く LPPはクラス間分離性を考慮していない (教師無し)

本研究のアプローチ FDAとLPPを組み合わせる! 同じクラスの近くの標本は近くに埋め込む 同じクラスでも遠くの標本は近づけない 異なるクラスの標本は遠くに埋め込む 遠く 近く 条件無し

局所フィッシャー判別分析(LFDA) 局所クラス内散布行列: 局所クラス間散布行列:

埋め込み行列の求め方 LFDA規準はFDA規準と同じ形式なので,一般化固有値問題を解くだけで埋め込み行列を求めることができる!

LFDAは3種類全てのデータに対してうまくいく! LFDAの例 単純 ラベル混合クラスタ 多峰性 LFDAは3種類全てのデータに対してうまくいく! 注意:通常は          が成り立つため,     LFDAではC個以上の特徴が取り出せる

Goldberger, Roweis, Hinton & Salakhutdinov (NIPS2004) 近傍成分分析(NCA) Goldberger, Roweis, Hinton & Salakhutdinov (NIPS2004) 確率的最近傍分類機のクロスバリデーションエラーを最小化する 求まる埋め込みは分離性が高い NCAは非凸最適化問題を含む 局所最適解が存在 解の解析形は知られていない 遅い繰り返しアルゴリズム LFDAは最適解が解析的に求まる

Globerson & Roweis (NIPS2005) 最大縮退座標系学習(MCML) Globerson & Roweis (NIPS2005) 考え方はFDAと同様 同じクラスの標本は近くに(一点に) 異なるクラスの標本は遠くに MCMLは非凸最適化問題を含む しかし凸近似が存在する 近似解しか求まらない 近似解の解析形は知られていない 遅い繰り返しアルゴリズム

実験 UCIデータの可視化: 元のデータから3つのクラスを取り出す その内2つのクラスをくっつける クラス1(青) クラス2(赤) Letter recognition (D=16) Segment (D=18) Thyroid disease (D=5) Iris (D=4) 元のデータから3つのクラスを取り出す その内2つのクラスをくっつける クラス1(青) クラス2(赤)

実験結果のまとめ クラス間分離性OK,クラス内多峰性OK クラス間分離性OK,クラス内多峰性NG クラス間分離性NG,クラス内多峰性OK Lett Segm Thyr Iris コメント FDA 非多峰性 LPP 非分離性 LFDA NCA 遅い,局所解 MCML 遅い,非多峰性 クラス間分離性OK,クラス内多峰性OK クラス間分離性OK,クラス内多峰性NG クラス間分離性NG,クラス内多峰性OK

Letter Recognition FDA LPP LFDA NCA MCML 青 vs. 赤

Segment FDA LPP LFDA NCA MCML 青 vs. 赤

Thyroid Disease FDA LPP LFDA NCA MCML 青 vs. 赤

Iris FDA LPP LFDA NCA MCML 青 vs. 赤

Globerson & Roweis (NIPS2005) カーネル化 LFDAはカーネルを使うことにより非線形に拡張できる FDA: Kernel FDA LPP: Laplacian eigenmap MCML: Kernel MCML NCA: できない? Mika et al. (NNSP1999) Belkin & Niyogi (NIPS2001) Globerson & Roweis (NIPS2005)

Zelnik-Manor & Perona (NIPS2004) 結論 LFDAはFDAとLPPの良い所を組み合わせる LFDAは多峰性データの埋め込みに向いている 埋め込み行列が解析的に求まるため計算が速い LFDAは類似度行列を定める必要がある 本発表では,局所スケーリング法を用いて類似度行列を定めた. 局所スケーリング法はチューニングパラメータを含まないので使いやすいが,有効性の理論的な裏づけはない. Zelnik-Manor & Perona (NIPS2004)