Large Margin Component Analysis by Lorenzo Torresani, Kuang-chih Lee

Slides:



Advertisements
Similar presentations
知能情報工学 年4月26日 吉川雅博 第3回第3回 k最近傍法. プロトタイプによるNN法の流れ 2 AD変換前処理部特徴抽出部識別部 ・標本化 ・量子化 ・ノイズ除去 ・正規化 識別辞書 (プロトタイプ) 音声や画像 (アナログ信号) 識別 結果 識別が容易な 特徴を抽出 プロトタイプと比較.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
行列の圧縮による変化点検出の高速化 IBM東京基礎研究所 井手 剛 | 2006/11/01 | IBIS 2006.
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
プログラムのパタン演習 解説.
Building text features for object image classification
「わかりやすいパターン認識」 第1章:パターン認識とは
画像処理論.
講義1:カーネル法 産業技術総合研究所 津田宏治.
論文紹介 “Data Spectroscopy: Learning mixture models using eigenspaces of convolution operators” (ICML 2008) ─ by Tao Shi, Mikhail Belkin, and Bin Yu IBM東京基礎研究所.
Extremal Combinatorics 14.1 ~ 14.2
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
読んだもの1 P0145R1: Refining Expression Evaluation Order for Idiomatic C++
大規模データの線形識別 Recent Advances of Large-scale Linear Classification
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
Paper from PVLDB vol.7 (To appear in VLDB 2014)
整数計画法を用いた ペグソリティアの解法 ver. 2.1
CV輪講 姿勢変化に対応したSoft Decision Featureと Online Real Boostingによる人物追跡
(ラプラス変換の復習) 教科書には相当する章はない
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
サポートベクターマシン によるパターン認識
高次元データの解析 -平均ベクトルに関する検定統計量の 漸近分布に対する共分散構造の影響-
Spectral Clustering による 語義曖昧性解消のための 教師あり類似度学習
PCAからICAへ? 狩野裕+清水昌平 (大阪大学人間科学部) 日本行動計量学会:東京大学 平成12年10月.
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
決定木とランダムフォレスト 和田 俊和.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
ICML2006勉強会 2006年7月29日 局所フィッシャー判別分析 東京工業大学 計算工学専攻 杉山 将.
Songzhu Gao, Tetsuya Takiguchi, Yasuo Ariki (Kobe University) 
第14章 モデルの結合 修士2年 山川佳洋.
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
6. ラプラス変換.
訓練データとテストデータが 異なる分布に従う場合の学習
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
主成分分析 Principal Component Analysis PCA
高次元真空Einstein方程式 と 加速宇宙
“Regression on Manifolds using Kernel Dimension Reduction” by Jens Nilsson, Fei Sha, and Michael I. Jordan IBM東京基礎研究所 井手剛 | 2007/08/20 | ICML
Data Clustering: A Review
1-P-25 3次キュムラントバイスペクトラム特徴とReal AdaBoostによる音声区間検出
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
Nightmare at Test Time: Robust Learning by Feature Deletion
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
B03 量子論理回路の 最適化に関する研究 西野哲朗,垂井淳,太田和夫,國廣昇 電気通信大学 情報通信工学科.
サポートベクターマシン Support Vector Machine SVM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
アルゴリズムとデータ構造1 2009年6月15日
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
スパース構造学習の 異常検知への応用 IBM東京基礎研究所 井手 剛 | 2008/10/30 | IBIS 2008.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
ICML読む会資料 (鹿島担当) 教師ナシ の 構造→構造 マッピング 読んだ論文: Discriminative Unsupervised Learning of Structured Predictors Linli Xu (U. Waterloo) , … , Dale Schuurmans.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
音響伝達特性を用いた単一チャネル 音源位置推定における特徴量選択の検討
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
アルゴリズムとデータ構造 2010年6月17日
目次 はじめに 収束性理論解析 数値実験 まとめ 特異値計算のための dqds 法 シフトによる収束の加速
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
ランダムプロジェクションを用いた音響モデルの線形変換
計算機プログラミングI 第5回 2002年11月7日(木) 配列: 沢山のデータをまとめたデータ どんなものか どうやって使うのか
Presentation transcript:

Large Margin Component Analysis by Lorenzo Torresani, Kuang-chih Lee IBM東京基礎研究所 井手剛 | 2007/01/26 | NIPS読み会

目次 論文の概要 なぜこの論文を面白そうだと思ったか 論文の紹介 感想 はじめに 最大マージンk近傍分類のための次元削減 最大マージン分類のための非線形特徴抽出 実験結果 多手法との関連 感想 | 2007/01/26 | NIPS読み会

論文の概要: この論文は、k-NN分類器の改良に関する論文。 改良のしどころは、「距離」の計算式。 キーワード k-NN k最近傍分類法 Metric learning データから計量をフィッティングすること Dimension reduction 高次元データから低次元のデータ表現を作ること Metric (計量) 数百から数千次元を想定 | 2007/01/26 | NIPS読み会

なぜこの論文を面白そうだと思ったか Large Margin Component Analysis というタイトルが意味深でいい感じだった 次元削減とメトリック学習を一緒にやる、というのが気に入った 実験結果のグラフをチラと見るとなかなかの性能向上が得られていた | 2007/01/26 | NIPS読み会

Introduction はじめに | 2007/01/26 | NIPS読み会

おさらい k-Nearest Neighbor とは? はxのk個の近傍 「近傍」を決めるときに、距離の測り方を与える必要 単純だけど意外によい  実装簡単 非線形な識別境界を実現できる でも... 一般には、訓練データをすべて覚えていないといけない 距離の測り方に任意性 3-NN | 2007/01/26 | NIPS読み会

k-NNで距離尺度をいじるとなぜいいのか: DANNアルゴリズム (Hastie-Tibshirani, 1996) “Discriminant adaptive nearest neighbor classification” メトリック学習のさきがけ(と思われているようだ) 識別境界に沿って空間を圧縮するように距離を測る 行列計算によって、計量Mを訓練データから学習する方法を提案 | 2007/01/26 | NIPS読み会

高次元のデータはいろいろ苦しい: 記憶容量的に。次元の呪い的に。 高次元のデータはいろいろ苦しい: 記憶容量的に。次元の呪い的に。 何が難しいか 訓練データを全部ためておくのはスペース的に厳しい 計算量も馬鹿にならない 次元に呪われる: 近傍の概念がほとんど意味を失ってしまう 単位サイコロの体積の10%を占める辺の長さ 0.46 (3次元) 0.79(10次元) See “Elements” | 2007/01/26 | NIPS読み会

Weinberger et al. との差分: (1)計量の学習と次元削減を統合する。 (2)計量の学習におけるカーネル化の処方箋を与える この論文はWeinberger et al. [NIPS 2005]の改良である Objective(後述)はほぼ同一 しかし二つの点で本質的な差分がある 1.次元削減機能を計量の学習方法に取り込んだ Weinberger et al.では前処理としてPCAを行っていた 2.計量の学習のカーネル化をしてみせた Weinberger et al.ではfuture workに挙げられていた | 2007/01/26 | NIPS読み会

Linear Dimensionality Reduction for Large Margin kNN Classification 最大マージンk近傍分類のための次元削減 | 2007/01/26 | NIPS読み会

WeinbergerのLMNN (Large-Margin Nearest Neighbor, 1/3) 目的関数の第1項は同一ラベルのサンプルの広がりの度合いを表す Weinberger et al.[NIPS 2005] 訓練データ { (xi, yi) } 正方・フルランクのD次元行列による1次変換 異なるラベルがうまく分離してくれるようにLを学習したい Objectiveは二つの項からなる 第1項は同じラベルのサンプルの広がりの度合い xi と同一ラベルでk近傍の時に1 同一ラベルを持たないと0 同じラベルでも、k近傍に入っていないと0 | 2007/01/26 | NIPS読み会

WeinbergerのLMNN (Large-Margin Nearest Neighbor, 2/3) 目的関数の第2項がマージン最大化を目指す損失項 Objectiveの第2項は、近寄りすぎの異ラベルサンプルを罰する 絵で理解しよう hinge loss | 2007/01/26 | NIPS読み会

WeinbergerのLMNN (Large-Margin Nearest Neighbor, 3/3) M≡LTL についてSDPとして解く Hinge lossにスラック変数を使って書き換える M≡LTLは常に正定だから半正定値計画問題となる 汎用のSDPソルバは遅すぎるので、勾配法を使ったらしい PCAで次元削減してからLMNNをやると、k-NNよりはよい結果を出す しかし多クラスSVMにはなかなか勝てない | 2007/01/26 | NIPS読み会

Large Margin Component Analysis ──変換行列Lを長方形行列に限ることで、低ランク化を行う。凸じゃなくなるが、気にしない d次元 (<100) D次元 (~1000) “Although the objective optimized by our method is also not convex, we experimentally demonstrate that our solution converges consistently to better metrics than those computed via the application of PCA followed by subspace distance learning (see Section 4).” 深刻に考えずに勾配法で解く | 2007/01/26 | NIPS読み会

Nonlinear Feature Extraction for Large Margin kNN Classification 最大マージン分類のための非線形特徴抽出 | 2007/01/26 | NIPS読み会

この計量学習の勾配法をカーネル化したい(誰もやった人はいないので)。 素朴に x →φとするだけでは内積だけでは書けない Lについては何もしなくてよいのか?? | 2007/01/26 | NIPS読み会

カーネルPCAでの変換行列をヒントに、 L=ΩΦ の形を仮定するのがキモ したがって、主成分で張られる空間への射影行列は、こんな形となる 書き換えると だからここでも L=ΩΦの形にLを仮定するのが自然。 | 2007/01/26 | NIPS読み会

勾配法による更新則は無事カーネル化された 計算に難しいところは全然ない | 2007/01/26 | NIPS読み会

Experimental results 実験結果 | 2007/01/26 | NIPS読み会

実験その1: 高次元データでの実験 実験条件 LMCAは勾配法で解くから、初期値が必要 カーネル版のLMCAはガウシアンカーネルを使う PCAで初期値を与える カーネル版のLMCAはガウシアンカーネルを使う KLMCAと表記 k(k-NNのkのこと)、c(ロス項の係数)、カーネルパラメターはCVで決める データ Isolet 6238訓練データ D=617次元 26クラス AT&T Faces 400サンプル D=1178次元 40クラス StarPlus fMRI | 2007/01/26 | NIPS読み会

実験その1: 高次元データでの実験 WeinbergerらのLMNNを系統的に上回っている。 計算時間(AT&T Faces, d=10, k=3) LMNN 5 sec LMCA 21 sec (k-LMCA 25 sec) | 2007/01/26 | NIPS読み会

実験その2: 比較的次元が低いデータでの分類精度 多クラスSVMに一応勝っている 次元は4から34 LMCAでは次元削減はしないことにし(→LMNNと同一になる)、KLMCAとLMNNを比べる つまりカーネル化のご利益を調べる | 2007/01/26 | NIPS読み会

感想 | 2007/01/26 | NIPS読み会

感想 個人的には、「空間の曲がり方を学習」、というのは素敵だと思う。 ただし、メトリック学習についてのおいしいところは大方持って行かれてしまった気がする。 SDPと聞いてひるんでいた時期がしばらくあったが、勾配法で何とかなるのなら、びびらなくてもいいのかもしれない。 凸じゃなくなるけど気にしません、という前向きな姿勢に感銘を受けた。 最適解の理論的保証がない割に、かなりよい性能を出している。 | 2007/01/26 | NIPS読み会