サポートベクターマシン Support Vector Machine SVM

Slides:



Advertisements
Similar presentations
1. 補間多項式 n 次の多項式 とは、単項式 の 線形結合の事である。 Definitions: ( 区間, 連続関数, abscissas (データ点、格子点、差分点), 多項 式 ) Theorem. (補間多項式の存在と一意性) 各 i = 0, …, n について、 をみたす、次数が高々 n.
Advertisements

白井ゼミ 豊田秀樹(2008)『データマイニング入門』 (東京図書)。4章
コンピュータビジョン特論 第8回対象追跡 2006年11月22日 加藤丈和.
講義1:カーネル法 産業技術総合研究所 津田宏治.
コンピュータ将棋におけるカーネル法を用いた静的評価関数の学習
(ラプラス変換の復習) 教科書には相当する章はない
誤差の二乗和の一次導関数 偏微分.
高校数学の知識から、 人工知能・機械学習・データ解析へ つなげる、 必要最低限の教科書
Generative Topographic Mapping (GTM) でデータの 可視化・回帰分析・モデルの 逆解析を一緒にやってみた
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
データ解析 静岡大学工学部 安藤和敏
市場規模の予測.
決定木とランダムフォレスト 和田 俊和.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
第9章 混合モデルとEM 修士2年 北川直樹.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
最小自乗法.
第14章 モデルの結合 修士2年 山川佳洋.
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
6. ラプラス変換.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
主成分分析 Principal Component Analysis PCA
市場規模の予測.
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
部分的最小二乗回帰 Partial Least Squares Regression PLS
サポートベクターマシンを用いた タンパク質スレッディングの ためのスコア関数の学習 情報科学科4年 81025G 蓬来祐一郎.
Genetic Algorithm-based Partial Least Squares GAPLS Genetic Algorithm-based Support Vector Regression GASVR 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
線形判別分析 Linear Discriminant Analysis LDA
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
データ解析 静岡大学工学部 安藤和敏
自己組織化マップ Self-Organizing Map SOM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
遺伝的アルゴリズム (GA) を活用した スペクトルの波長選択および時系列 データにおけるプロセス変数かつその時間 遅れ (ダイナミクス) の選択 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
回帰分析(Regression Analysis)
京都大学 化学研究所 バイオインフォマティクスセンター
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
土木計画学 第12回(1月14日) 計画における代替案の作成2 担当:榊原 弘之.
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
人工知能特論II 第8回 二宮 崇.
データ解析 静岡大学工学部 安藤和敏
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
構造方程式ゼミナール 2012年11月14日-11月21日 構造方程式モデルの作成.
実験計画法 Design of Experiments (DoE)
ICML読む会資料 (鹿島担当) 教師ナシ の 構造→構造 マッピング 読んだ論文: Discriminative Unsupervised Learning of Structured Predictors Linli Xu (U. Waterloo) , … , Dale Schuurmans.
Locally-Weighted Partial Least Squares LWPLS 局所PLS
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
音響伝達特性を用いた単一チャネル 音源位置推定における特徴量選択の検討
パターン認識特論 カーネル主成分分析 和田俊和.
Boruta 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
東京工業大学情報理工学研究科 小島政和 第1回横幹連合コンファレンス 2005年11月25,26日 JA 長野県ビル
転移学習 Transfer learning
グラフの帯域幅連続多重彩色 を求めるアルゴリズム (Bandwidth Consective Multicolorings of Graphs) 西関研究室 西川和秀.
混合ガウスモデル Gaussian Mixture Model GMM
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
Presentation transcript:

サポートベクターマシン Support Vector Machine SVM 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌

サポートベクターマシン (SVM) とは? 線形判別関数によるクラス分類 2つのクラス (1のクラス・-1のクラス) のどちらに属するか決定 予測能力の高いモデルを作成可能 カーネルトリックにより非線形の判別モデルに

線形判別関数 線形判別関数: x2 クラス1 クラス-1 x1

SVMの基本的な考え方 マージンを最大化するように 判別関数を決める! x2 クラス1 クラス-1 マージン = x1 (点と直線との距離で計算)

サポートベクター x2 クラス1 サポートベクター ・・・他のクラスのサンプルと   最も近いところにいるサンプル f(x) = 1 (クラス1) f(x) = -1 (クラス-1) クラス-1 x1

マージンの最大化 線形判別関数: x2 クラス1 の最大化 の最小化 クラス-1 マージン = x1 (点と直線との距離で計算)

きれいに分離できないときは? スラック変数 ξ を導入! x2 サンプルごとの ξi の和 を最小化 ξi > 1 n: モデル構築用 サンプル数 x1 ξi = 0

2つの項を一緒に最小化 ||w|| / 2 の最小化 → 計算の都合上、 ||w||2 / 2 の最小化 ξi の和の最小化 の最小化 ただし、 C : 2つの項のバランスを決める係数 x(i): i 番目のサンプルの説明変数 y(i): i 番目のサンプルの値 (1 もしくは -1)

重み w を求める Lagrangeの未定乗数法 ラグランジュ乗数αi、βi (i=1, 2, ..., n) を導入 w、b、ξiに関してGを最小化し、αi、βiに関してGを最大化 w、b、ξiに関してGが極小 G をw、b、ξi それぞれで偏微分して 0 とする

偏微分して0 G を w で偏微分して0 G を b で偏微分して0 G を ξi で偏微分して0 これらを使って G を変形すると・・・

二次計画問題 制約 のもとで、 G を αi に対して最大化する二次計画問題を解くと αi が求まる w が求まる

線形判別関数を求める S : サポートベクター (αi≠0 のサンプル) の集合 nS : サポートベクターの個数

非線形SVMへの拡張 線形判別関数は判別能力に限界 元の空間より高次元に写像 高次元空間上で線形判別関数を構築 高次元空間への写像の例: 写像前(1次元) 線形判別不能 写像後(2次元) 線形判別可能 線形判別関数

カーネルトリック 線形判別関数 (元の空間): 高次元空間への写像: 非線形判別関数 (高次元空間): ϕ(x) を求める必要はなく、内積 ϕ(x)ϕ(x(i))T が分かればOK! 高次元空間への写像 ϕ(x) ではなく、内積を指定 (カーネル関数 K )

カーネル関数の例 線形カーネル ガウシアンカーネル (使われることが多い) 多項式カーネル

最終的なSVMを作る前に最適化するパラメータ ガウシアンカーネルを使用したSVMのとき、最初に C と γ とを 適切に設定する必要がある グリッドサーチ + クロスバリデーション による C および γ の最適化

グリッドサーチ+クロスバリデーション C と γ の候補を設定し、すべての組合せ (グリッド, 下図の● ) で クロスバリデーションを行う γ : 2-10, 2-9, ..., 24, 25 例) クロスバリデーション後の 正解率が最も高い C ・ γ の組を選択 正解率についてはこちら γ 25 24 ・・・ 2-9 2-10 C 2-5 2-4 ・・・ 29 210