第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.

Slides:



Advertisements
Similar presentations
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Advertisements

ネットワーク理論講義補助資料 Text. 組合せ最適化とアルゴリズム 4.5 節 主・双対法 pp
講義1:カーネル法 産業技術総合研究所 津田宏治.
Pattern Recognition and Machine Learning 1.5 決定理論
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
芦田尚美*,髙田雅美*,木目沢司†,城和貴* *奈良女子大学大学院 †国立国会図書館
Bias2 - Variance - Noise 分解
「基礎OR」/「OR演習」 第3回 10/13/2009 森戸 晋.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
第 七 回 双対問題とその解法 山梨大学.
(ラプラス変換の復習) 教科書には相当する章はない
情報経済システム論:第11回 担当教員 黒田敏史 2018/9/20 情報経済システム論.
第4章 線形識別モデル 修士2年 松村草也.
東京工業大学 機械制御システム専攻 山北 昌毅
ネットワーク理論講義補助資料 Text. 組合せ最適化とアルゴリズム 4.3 節 Lagrange緩和 pp
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
第6章 連立方程式モデル ー 計量経済学 ー.
決定木とランダムフォレスト 和田 俊和.
奈良女子大集中講義 バイオインフォマティクス (9) 相互作用推定
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
第9章 混合モデルとEM 修士2年 北川直樹.
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
ICML2006勉強会 2006年7月29日 局所フィッシャー判別分析 東京工業大学 計算工学専攻 杉山 将.
P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)
第14章 モデルの結合 修士2年 山川佳洋.
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
6. ラプラス変換.
早わかりアントコロニー最適化 (Ant Colony Optimization)
Selfish Routing and the Price of Anarchy 4.3
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Data Clustering: A Review
連続領域におけるファジィ制約充足問題の 反復改善アルゴリズムによる解法 Solving by heuristic repair Algorithm of the Fuzzy Constraint Satisfaction Problems with Continuous Domains 北海道大学.
ファジィ制約充足問題への 連続領域の導入 Introducing continuous domains to
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
Nightmare at Test Time: Robust Learning by Feature Deletion
知識科学研究科 知識システム構築論講座 林研究室 佛明 智
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
ナップサック問題 クマさん人形をめぐる熱いドラマの結末.
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
サポートベクターマシン Support Vector Machine SVM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
人工知能特論II 第8回 二宮 崇.
ポッツスピン型隠れ変数による画像領域分割
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
分枝カット法に基づいた線形符号の復号法に関する一考察
構造方程式ゼミナール 2012年11月14日-11月21日 構造方程式モデルの作成.
ICML読む会資料 (鹿島担当) 教師ナシ の 構造→構造 マッピング 読んだ論文: Discriminative Unsupervised Learning of Structured Predictors Linli Xu (U. Waterloo) , … , Dale Schuurmans.
コストのついたグラフの探索 分枝限定法 A*アルゴリズム.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
音響伝達特性を用いた単一チャネル 音源位置推定における特徴量選択の検討
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
情報処理Ⅱ 2007年12月3日(月) その1.
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
Presentation transcript:

第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋

本章の概要 SVM (Support vector machine) RVM (Random vector machine) -識別関数の一種(出力の事後確率は不明) -モデルパラメータの局所解が大域解になる RVM (Random vector machine) -ベイズ理論に基づき事後確率の推定が可能 -SVMよりさらに疎なモデルが得られる

SVMの種類 線形SVM -線形分離可能 -線形分離不可能 非線形SVM

非線形SVM例 訓練データ点が特徴空間 において線形分離可能 得られるSVMは入力空間 において訓練データを 訓練データ点が特徴空間    において線形分離可能 得られるSVMは入力空間  において訓練データを 完全に分離する(入力空間においては分離境界は非線形にもなり得る)

クラス判別とSVM 2値分類(クラス分類)問題を解く :特徴空間変換関数 :バイアスパラメータ 訓練データ 目標値 未知のデータ点 を 未知のデータ点   を の符号に応じて分類

最大マージン分類器 線形分離可能な場合 パラメータ が存在 まとめて 一般的には解は多数存在する 汎化誤差がもっとも小さくなるような解を求める マージン(margin) を最大化する

マージン最大化定式化 超平面 から点 までの距離は 線形分離可能の仮定から 分解境界から点 までの距離は マージンを最大化する最適化問題 から点  までの距離は 線形分離可能の仮定から 分解境界から点  までの距離は マージンを最大化する最適化問題 境界に最も近い点について 全ての点について

マージン最大化問題 マージン最大化問題は以下の問題に帰着される 二次計画法の一例 → 線形不等式系で与えられる制約条件の下で → 線形不等式系で与えられる制約条件の下で    二次関数を最小化する問題 制約付き最適化問題を解くため,ラグランジュ乗数を導入する に関する停留条件

マージン最大化問題の双対表現 (7.6)の双対表現 以下のカーネル関数を用いた 双対表現 制約条件 主問題(Primary problem) M変数,N制約式 双対問題(Dual problem) N変数,M制約式 に関して最大化 この問題は再び二次計画法になっている(最適化変数は  )

カーネルトリック カーネル関数 カーネル関数が定義されていれば     の具体的な形を知る必要はない 例)

サポートベクトル 学習したモデルで新しいデータ点を分類するには このときKKT条件は がデータ点の予測に影響 サポートベクトル 一度モデルを学習してしまえばサポートベクトル以外の訓練データは不要

バイアスパラメータの算出 二次計画問題を解き が求まるとバイアスパラメータ を求めることができる :サポートベクトルの集合 二次計画問題を解き  が求まるとバイアスパラメータ  を求めることができる :サポートベクトルの集合 :サポートベクトルの総数

線形分離不可能な場合への拡張 ここまでの仮定 訓練データ点が特徴空間 において線形分離可能 得られるSVMは入力空間 において訓練データを 訓練データ点が特徴空間    において線形分離可能 得られるSVMは入力空間  において訓練データを 完全に分離する(入力空間においては分離境界は非線形にもなり得る) 訓練データを完全に分離する解が 必ずしも汎化能力に優れるとは限らない 一部の訓練データの誤分類を許すように修正 誤って分類したデータにはマージンの境界からの距離に比例した ペナルティを与える スラック変数 データが正しく分類 それ以外

ペナルティ項を加えた定式化 識別関数(7.5)を修正 ハードマージンからソフトマージンへの緩和 目的はペナルティを与えつつもマージンを最大化する よって次式を最小化する :ペナルティとマージンの大きさの  トレードオフを制御するパラメータ :誤分類されたデータの上限

最小化問題のラグランジュ関数 ラグランジュ関数 KKT条件

最小化問題の双対表現 についての停留条件 制約条件 双対形のラグランジュ関数

サポートベクトル サポートベクトルについては さらに のサポートベクトルでは 先ほどと同様に

SVMを解くアルゴリズム 分類予測時と異なり,パラメータを学習する段階では サポートベクトルでなく全ての訓練データの情報が必要 チャンギングを利用 保護共役勾配法(Burges, 1982) 分解法(Osuna et al., 1996) 逐次最小問題最適化法(SMO;sequential minimal optimization)(Platt,1999)

SMOについて 計算効率(計算時間の飛躍的減少)のため,最もよく使われるSVMの最適化の手法 たった2つのラグランジュ乗数を含む部分問題を逐次解いていくことで最終的な解を得る 2変数の選び方にはいくつかヒューリスティックが存在する 計算時間(データ数の1~2乗) (一般的にデータの3乗)

SMOの定式 目的関数 制約条件 2変数の2次関数 1変数の2次関数 すべての  がKTT条件を満たせば最適解となり終了

SMO続き 部分問題で取り上げる2変数の選び方  を探索していき,KTT条件を満たしていない を選択する.この時点で全ての がKTT条件を満たす場合は,その時点で最適解となり,学習は終了となる. ⅰ) を選択する際に,まず     を満たし,かつ   が                                        最大になる を選択する. ⅱ)     を満たす がない場合には,   または   になる を選択する. ⅲ)ⅰ),ⅱ)がない場合,ランダムに を選択する. 選択された   で目的関数を解き,最適解が得られたら再び    を選択する.

SVMにまつわるその他のトピック ロジスティック回帰との関係 多クラスSVM 回帰のためのSVM -1対他(one-versus-the-rest)方式 -1対1(one-versus-one)方式 回帰のためのSVM

SVMの問題点 多クラス識別が難しい 2次計画法を解くための計算量 カーネルの選択 -カーネルの最適型 -カーネルの持つパラメータの最適値 -ペナルティとマージンの制御パラメータ →実験で求める

何に使えるか BCALsの移動-滞在判定

ラグランジュ乗数 その1 複数の変数に1つ以上の制約条件が課せられたときに,関数の停留点を求めるために用いられる. 例1) ラグランジュ関数 ラグランジュ乗数 その1 複数の変数に1つ以上の制約条件が課せられたときに,関数の停留点を求めるために用いられる. 例1) ラグランジュ関数 の に対する停留点を求める

ラグランジュ乗数 その2 例2) ⅰ) 停留点が 制約が無効 停留条件 の停留条件に等しい ⅱ) 停留点が 解が制約面 上に存在 ラグランジュ乗数 その2 例2) ⅰ) 停留点が 制約が無効 停留条件 の停留条件に等しい ⅱ) 停留点が 解が制約面        上に存在 以前の停留条件に等しい さらに が存在して いずれにしろ

ラグランジュ乗数 その3 例2) 以下の条件でラグランジュ関数(E.4)の停留点を求める ラグランジュ乗数 その3 例2) 以下の条件でラグランジュ関数(E.4)の停留点を求める これを Karush-Kuhn-Tucker条件(KKT条件)という

何となく気になったこと