Nightmare at Test Time: Robust Learning by Feature Deletion

Slides:



Advertisements
Similar presentations
遺伝的アルゴリズムにおける ランドスケープによる問題のクラス分類
Advertisements

到着時刻と燃料消費量を同時に最適化する船速・航路計画
Building text features for object image classification
「わかりやすいパターン認識」 第1章:パターン認識とは
画像処理論.
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
TCPデータ通信との公平性を考慮した 輻輳適応能力を有する MPEG動画像通信のための品質調整機構
整数計画法を用いた ペグソリティアの解法 ver. 2.1
TextonBoost:Joint Appearance, Shape and Context Modeling for Multi-Class Object Recognition and Segmentation 伊原有仁.
エージェントアプローチ 人工知能 21章 B4 片渕 聡.
CV輪講 姿勢変化に対応したSoft Decision Featureと Online Real Boostingによる人物追跡
第 七 回 双対問題とその解法 山梨大学.
不安定な補償器を用いた 低剛性・高慣性比の 二慣性ねじり振動系における 外乱抑制制御性能の改善
自閉症スペクトラム障害児と定型発達児の識別に関する音響特徴量選択の検討
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
情報工学総合演習 D-I 近似アルゴリズム 埼玉大学 理工学研究科 山田 敏規、 橋口 博樹、 堀山 貴史
Linear Relaxation for Hub Network Design Problems
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
高次元データの解析 -平均ベクトルに関する検定統計量の 漸近分布に対する共分散構造の影響-
P4-21 ネットワーク上の経路に対する 回帰問題について
Spectral Clustering による 語義曖昧性解消のための 教師あり類似度学習
ネットワーク上での社会的効用と個人的効用の対立問題に対するアルゴリズム的研究
決定木とランダムフォレスト 和田 俊和.
ネットワーク理論 Text. Part 3 pp 最短路問題 pp 最大流問題 pp.85-94
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
Online Decoding of Markov Models under Latency Constraints
音高による音色変化に着目した音源同定に関する研究
ICML2006勉強会 2006年7月29日 局所フィッシャー判別分析 東京工業大学 計算工学専攻 杉山 将.
Andrew Brzezinski, Gil Zussman, and Eytan Modiano
Songzhu Gao, Tetsuya Takiguchi, Yasuo Ariki (Kobe University) 
第14章 モデルの結合 修士2年 山川佳洋.
訓練データとテストデータが 異なる分布に従う場合の学習
Linearly-solvable Markov decision problems Emanuel Todorov (UCSD)
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
Data Clustering: A Review
連続領域におけるファジィ制約充足問題の 反復改善アルゴリズムによる解法 Solving by heuristic repair Algorithm of the Fuzzy Constraint Satisfaction Problems with Continuous Domains 北海道大学.
部分的最小二乗回帰 Partial Least Squares Regression PLS
First Course in Combinatorial Optimization
論文紹介: “Joint Embedding of Words and Labels for Text Classification”
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
ナップサック問題 クマさん人形をめぐる熱いドラマの結末.
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
法数学のための 機械学習の基礎 京大(医) 統計遺伝学分野 山田 亮 2017/04/15.
Data Clustering: A Review
サポートベクターマシン Support Vector Machine SVM
Max Cut and the Smallest Eigenvalue 論文紹介
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
人工知能特論II 第8回 二宮 崇.
第6回:得点を表示しよう! (文字の表示、乱数)
半正定値計画問題(SDP)の 工学的応用について
自然言語処理2015 Natural Language Processing 2015
パターン認識特論 ADA Boosting.
分枝カット法に基づいた線形符号の復号法に関する一考察
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
ICML読む会資料 (鹿島担当) 教師ナシ の 構造→構造 マッピング 読んだ論文: Discriminative Unsupervised Learning of Structured Predictors Linli Xu (U. Waterloo) , … , Dale Schuurmans.
パターン認識特論 ADA Boosting.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
音響伝達特性を用いた単一チャネル 音源位置推定における特徴量選択の検討
バイオインフォマティクスII 遺伝子発現データの AdaBoostによる判別
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
自己縮小画像と混合ガウス分布モデルを用いた超解像
自然言語処理2016 Natural Language Processing 2016
識別子の読解を目的とした名詞辞書の作成方法の一試案
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
Normalized Web Distanceを用いた音声認識の誤り訂正法 301-4in
Presentation transcript:

Nightmare at Test Time: Robust Learning by Feature Deletion Amir Globerson Computer Science and Articial Intelligence Laboratory, MIT, Cambridge, MA, USA Sam Roweis Department of Computer Science, University of Toronto, Canada All the equation images are clipped from this paper. 論文紹介者:坪井祐太  (IBM東京基礎研究所/奈良先端大博士課程1年) 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)

ICML2006 読む会: Nightmare at Test Time (坪井) 論文の見どころ 意味深な(?)タイトル Nightmare at Test Time → 最悪な状況を前提に関数の最大化 目的:分類器のRobust学習 特定の素性にOver weightingしない学習 うまい問題設定 古くからの課題(素性選択)と似ているようでちょっと違う でも、素性選択と比べて解きやすい問題 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)

ICML2006 読む会: Nightmare at Test Time (坪井) ゲーム理論的枠組みによるモデル 学習時に使える素性が、分類時に使えるとは限らない Spam filtering: 言葉の移り変わり Image processing: pixel欠損 (pepper noise) Sensor network: neurons die →素性が消えることを前提とした学習 MinMaxシナリオ: 2プレーヤーゲーム Player 1: feature removal mechanism Classifierにもっとも性能を落とす素性を消す Player 2: classifier builder 最適なパラメータ(重み)を見つける 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)

ICML2006 読む会: Nightmare at Test Time (坪井) SVM (hinge loss)を前提に2player gameを定式化 Player 1: feature removal mechanism worst caseシナリオ:各学習サンプル(xi)でLossが最大になる素性を選択する 設定パラメータ: K (feature消去最大数) Worst case hinge loss K個消去済み素性ベクトル Loss max=最悪シナリオ αij :学習サンプル(xi)の消去する素性の位置(j)を示す (1-αi):学習サンプル(xi)の残る素性を示すベクトル 注意:各学習サンプルで消される素性は異なる 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)

SVM (hinge loss)を前提に2player gameを定式化 Player 2: classifier builder 素性消去最悪シナリオ時のloss(hwc)を最小化する重みwを求める(SVM) 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)

Player 1: feature removal mechanismの式変形 最悪シナリオ時のlossを不等式制約のある最小化問題に式変形 最適値を変えることなく制約をRelax si:素性を消すことによって増えるloss 双対問題 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)

ICML2006 読む会: Nightmare at Test Time (坪井) 最終的な最小化問題:FDROP 二次計画 & 凸問題 効率的に解ける パラメータ数:O(事例数*次元数)  SVMはO(事例数+次元数) 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)

ICML2006 読む会: Nightmare at Test Time (坪井) その他 (結果のみ紹介) Multi-classにも適用可能 Hinge loss以外の関数(log lossなど)にも適用可能かは不明(challenge) Kernelに出来る? 消去素性選択があるため自明でない(challenge) 学習サンプル間で同じ素性を削除する場合は? 凸問題だが、α(どの素性を消すかを現す変数)の制約をrelaxできないので提案手法ほど簡単に解けない 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)

素性選択との関係(1) 提案手法の方が計算量が少ない 一般的な素性選択 lossを最小にするfeatureをK個選択する問題 凸問題でない FDROPはdifferent computational class 二次計画 & 凸問題で効率的に解ける。 K個残した素性ベクトル 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)

素性選択との関係(2) 素性選択としても使える? FDROPで消去されやすい素性を採用することで素性選択に使える可能性がある 実験中:情報利得による素性選択と同程度の性能 Clipped from: A. Globerson & S. Roweis, “Nightmare at Test Time: Robust Learning by Feature Deletion”, ICML 2006 手書き文字認識問題でFDROPにより素性が削除された画像 →認識に重要な素性が落ちてそうなので、逆に言えば重要な素性が見つけられている? 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)

ICML2006 読む会: Nightmare at Test Time (坪井) 分類問題によるSVMとの実験結果 素性の一部が失われたデータではSVMより有効 スパムフィルタでは素性が無い場合でも良い性能 Clipped from: A. Globerson & S. Roweis, “Nightmare at Test Time: Robust Learning by Feature Deletion”, ICML 2006 人工データ 一番重要な素性を削除 手書き認識 ランダムに素性削除 スパムフィルタ ランダムに素性削除 2006-07-29 ICML2006 読む会: Nightmare at Test Time (坪井)