“Regression on Manifolds using Kernel Dimension Reduction” by Jens Nilsson, Fei Sha, and Michael I. Jordan IBM東京基礎研究所 井手剛 | 2007/08/20 | ICML 2007を読む会@大岡山.

Slides:



Advertisements
Similar presentations
Absolute Orientation. Absolute Orientation の問題 二つの座標系の間における剛体 (rigid body) 変換を復元す る問題である。 例えば: 2 台のステレオカメラから得られた3次元情報の間の関 係を推定する問題。 2 台のステレオカメラから得られた3次元情報の間の関.
Advertisements

1 小暮研究会2 第1章ベイジアンアルゴリズ ム 2値選択 ベルヌーイ試行 尤度原理 同一性 交換可能性 尤度についてのまとめ 環境情報学部3年 渡邊洋一.
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
主成分分析 主成分分析は 多くの変数の中を軸を取り直すことで より低い次元で表現できるようにする。 データがばらついている方向ほど
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
9. 主成分分析 Principal Component Analysis (PCA)
Pattern Recognition and Machine Learning 1.5 決定理論
論文紹介 “Data Spectroscopy: Learning mixture models using eigenspaces of convolution operators” (ICML 2008) ─ by Tao Shi, Mikhail Belkin, and Bin Yu IBM東京基礎研究所.
スペクトル法による数値計算の原理 -一次元線形・非線形移流問題の場合-
Extremal Combinatorics 14.1 ~ 14.2
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
主成分分析                     結城  隆   .
透視投影(中心射影)とは  ○ 3次元空間上の点を2次元平面へ投影する方法の一つ  ○ 投影方法   1.投影中心を定義する   2.投影平面を定義する
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
サポートベクターマシン によるパターン認識
相関分析.
高次元データの解析 -平均ベクトルに関する検定統計量の 漸近分布に対する共分散構造の影響-
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
PCAからICAへ? 狩野裕+清水昌平 (大阪大学人間科学部) 日本行動計量学会:東京大学 平成12年10月.
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
第9章 混合モデルとEM 修士2年 北川直樹.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
Large Margin Component Analysis by Lorenzo Torresani, Kuang-chih Lee
ICML2006勉強会 2006年7月29日 局所フィッシャー判別分析 東京工業大学 計算工学専攻 杉山 将.
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
独立成分分析 (ICA:Independent Component Analysis )
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
知能システム論I(13) 行列の演算と応用(Matrix) 2008.7.8.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
主成分分析 Principal Component Analysis PCA
計算量理論輪講 chap5-3 M1 高井唯史.
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
2つの平行光の観測による 内部カメラパラメータの安定なキャリブレーション
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
Black Litterman Modelによる最適化
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
9.通信路符号化手法1 (誤り検出と誤り訂正の原理)
部分的最小二乗回帰 Partial Least Squares Regression PLS
知識科学研究科 知識システム構築論講座 林研究室 佛明 智
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
資料 線型変換のイメージ 固有値、固有ベクトル 平賀譲(209研究室) 資料
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
B03 量子論理回路の 最適化に関する研究 西野哲朗,垂井淳,太田和夫,國廣昇 電気通信大学 情報通信工学科.
経営学研究科 M1年 学籍番号 speedster
サポートベクターマシン Support Vector Machine SVM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
人工知能特論II 第8回 二宮 崇.
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
半正定値計画問題(SDP)の 工学的応用について
プログラミング論 相関
実験計画法 Design of Experiments (DoE)
ICML読む会資料 (鹿島担当) 教師ナシ の 構造→構造 マッピング 読んだ論文: Discriminative Unsupervised Learning of Structured Predictors Linli Xu (U. Waterloo) , … , Dale Schuurmans.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
市松模様を使用した カメラキャリブレーション
ランダムプロジェクションを用いた音響モデルの線形変換
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

“Regression on Manifolds using Kernel Dimension Reduction” by Jens Nilsson, Fei Sha, and Michael I. Jordan IBM東京基礎研究所 井手剛 | 2007/08/20 | ICML 2007を読む会@大岡山

概要 ── 次元削減モノ。教師あり次元削減と、教師なし次元削減を組み合わせた点に新規性を主張。 次元削減には2流派ある 教師なし データXの分布(or 多様体)をうまく表すような座標を求める PCA、Isomap、Laplacian eigenmap、LLE、... 教師あり ラベル情報と矛盾しない写像を求める FDA、LFDA、その他 両者の組み合わせ SELF (semi-supervised LFDA) M. Sugiyama et al., Technical report TR07-0006, http://www.cs.titech.ac.jp/~tr/reports/2007/TR07-0006.pdf ラベルが分かっているものについてはLFDA、そうでないものはPCA ほか この仕事は次の二つの次元削減手法の組み合わせ 教師なし: Laplacian eigenmap 教師あり: 福水さんのカーネル次元削減 | 2007/08/20 | ICML 2007を読む会@大岡山

目次 カーネル次元削減とは Laplacian eigenmapとは どう組み合わせるのか 実験結果は? | 2007/08/20 | ICML 2007を読む会@大岡山

カーネル次元削減とは | 2007/08/20 | ICML 2007を読む会@大岡山

「十分な次元削減」(sufficient dimension reduction; SDR)。カーネル次元削減はSDRの一種。回帰関係を表すために最も「かけがえのない」部分空間を探す。 確率変数XとYが、何か強い結びつきを持つと仮定 回帰直線の周りにばらつくとか 直交射影の行列Bを使って、Xを狭めてみる Z = BTX Zが動く範囲をSとする SDRの問いかけ: 「もしSを失ったら、どれだけYとXは無関係になってしまうだろうか?」 「Sを失った結果、YとXが無関係になってしまう」 = 「Sはかけがえのないもの」 Zを与えた時にYとXが条件付き独立になってしまうように、Bを選べばよい | 2007/08/20 | ICML 2007を読む会@大岡山

条件付き独立性の成立を、条件付き共分散行列の等式に帰着させる 「条件付き独立性を言うためには、XとYの同時分布がいるのでは?(問題を簡単にしてないのでは)?」という心配は要らない 確率モデルの仮定が要らぬ、というのがSDRおよびKDRのキモ。 論文の定理1(の半分): 条件付き独立性は、条件付き共分散行列の等式と同値 つまり、 この等式を満たすようなB(射影行列)を求めればよい でもそれを直接やるのは難しい | 2007/08/20 | ICML 2007を読む会@大岡山

等式を満たすのをあきらめて、「できる限り最善な」Bを求める 条件付き共分散行列についての性質: 「制約をゆるめるとばらつきの余地は大きい」 「制約が厳しいとばらつきの余地は小さい」 結局、 をBについて「最小化」すればいい 残る問題 Z = BTX を使って をBについてパラメトライズするなんてできるのか 行列もしくは演算子の大きさの尺度をどう測るのか 直感的には、Zを与えた時のYのばらつき | 2007/08/20 | ICML 2007を読む会@大岡山

条件付き共分散行列を、条件なしのものを使って「展開」する 条件付き共分散行列(演算子)は、条件なしのものを使って書ける Xとありますが、Zのことです ガウシアンを条件付けた時の共分散と同じ形をしているが、これは分布によらずに一般に成り立つ 証明は福水さんの論文たちに書いてある Fukumizu et al. JMLR 2004 Fukumizu et al. 2006 数学的にハイレベルだが、証明をフォローすることはなんとか可能 | 2007/08/20 | ICML 2007を読む会@大岡山

条件なしの共分散行列をグラム行列で表す 条件付き共分散行列(演算子)は、条件なしのものを使って書ける 単純作業でグラム行列(中心化しておく)に書き換えることができる | 2007/08/20 | ICML 2007を読む会@大岡山

KDRの目的関数の完成 条件付き共分散行列の大きさはTraceで測ることにする 単純作業でグラム行列(中心化しておく)に書き換えることができる さらに簡単化する ノリ的には次のような式を使ったと思えばいい 行列の大きさはトレースで測ることにする 結局、条件付き独立性の条件は下記に帰着される | 2007/08/20 | ICML 2007を読む会@大岡山

Laplacian eigenmapとは | 2007/08/20 | ICML 2007を読む会@大岡山

原論文から(1/2): M. Belkin and P 原論文から(1/2): M. Belkin and P. Niyogi, "Laplacian eigenmaps and spectral techniques for embedding and clustering", NIPS 2001 元の座標x1、x2、...から、新しい座標y1、...を求めたい。その時の目的関数 つまり、「集団移住した後でも近所のつながりを大切にする」 2乗誤差の目的関数はグラフ・ラプラシアンを使って書き直せる 要するにこれを最小化すればいい | 2007/08/20 | ICML 2007を読む会@大岡山

原論文から(2/2): 一般化固有値問題として解ける 下記の最適化問題を解く 条件1: スケーリングの任意性を省く 条件2: ゼロ固有値の解を省く 解は固有値最低のものからM個の固有ベクトル ただし、ゼロ固有値(最小)は省く | 2007/08/20 | ICML 2007を読む会@大岡山

どう組み合わせるのか | 2007/08/20 | ICML 2007を読む会@大岡山

基本的に、Laplacian eigenmap で次元削減されたデータにKDRを行うだけ Laplacian eigenmapでもとの座標xiを、M次元の座標に変換 M本の固有ベクトルから作ったM次元データのデータ行列をUとする ui が新座標 そのデータUから、KDRにより第2弾の次元削減写像を求める。 d次元 Φui が新々座標 解くべきなのは下記 非線形、非凸。 射影勾配法で解く。 | 2007/08/20 | ICML 2007を読む会@大岡山

実験結果は? | 2007/08/20 | ICML 2007を読む会@大岡山

実験結果1 地表面温度 もともとは2次元の問題 1段目での次元削減 2段目の次元削減 きれいな線形相関 温度Y vs 地表の位置X 1段目での次元削減 M=100 2段目の次元削減 d=1 きれいな線形相関 次元「削減」としてはつまらないが、削減した座標により再現誤差を描いてみると、異常気象が分かる、らしい | 2007/08/20 | ICML 2007を読む会@大岡山

実験結果2 スノーマンの画像を回転してみる 本当の自由度は4 回転角(Y) vs ピクセル強度(X)、のような回帰関係を設定したらしい。 回転角と傾き角、ずらし量(タテヨコ) 画像は 110×80、1000枚 回転角(Y) vs ピクセル強度(X)、のような回帰関係を設定したらしい。 | 2007/08/20 | ICML 2007を読む会@大岡山

感想 | 2007/08/20 | ICML 2007を読む会@大岡山

感想 KDRは普通使われるような誤差基準とはちょっと毛色が変わっていて面白い この論文の組み合わせ方には、あまり感銘を受けなかった。 福水さんの論文についてはもうちょっと勉強の必要あり この論文の組み合わせ方には、あまり感銘を受けなかった。 ただ福水さん論文に寄りかかっているだけ、という感じがした。 実験結果も、興味深いのか深くないのかよくわからなかった。 | 2007/08/20 | ICML 2007を読む会@大岡山