Download presentation
Presentation is loading. Please wait.
1
要論B 講義日程 12/18 1. Overview,ニユーラルネット (福水) 2. グラフィカルモデル (土谷)
要論B 講義日程 12/18 1. Overview,ニユーラルネット (福水) 2. グラフィカルモデル (土谷) 12/19 3. 主成分分析 (南) 4. 独立成分分析 (南) 12/20 5.射影追跡法、 層別逆回帰分析 (栗木) 6.混合分布 (江口) 12/21 7.サポートベクター,ロジスティック (江口) 8.Boosting (福水)
2
ニユーラルネット グラフィカルモデル 主成分分析 独立成分分析 層別逆回帰分析 混合分布 Boosting サポートベクター
3
7.サポートベクターマシンと ロジスティック回帰 世の中、多くの問題は分類の問題に帰着できる。 そして永遠の未解決問題でもある。
もしこの問題が解決されるなら、投資家は決して損をしないだろうし 天気予報官は、確率予測をしなくてもよくなり、世の中に失恋も、倒産も なくなるかもしれない….
4
サポートベクター 混合分布 確率モデルとして,分布が混合されることのクリアな説明を試みる.
○ 潜在変量=グループ・ラベルの理解 ○ 最尤推定値を求める EM アルゴリズムの紹介 ○ 例題として,神経回路の量子解析のシナプス可塑性 分類の問題を考えるとき,確率モデルを考える必要性を強調する. 確率モデルは混合分布モデルのある類推から導入する. ○ ベイズルールの最適性を示す. ○ パラメトリックモデル,特に線形モデルを仮定して,プラグインルールの説明をする. このフレイムワークの下で ロジスティック判別は自然に導入されることを示す. ○ トレーニング・ロス,汎化誤差の説明をする. ○ サポートベクター・マシンの説明 ○ VC次元の説明 ○ カーネル法の説明 混合分布 サポートベクター
5
分類方法のための解析 (判別分析) 参考文献
分類方法のための解析 (判別分析) 参考文献 [1] Krazanowski, W. J. & Marriott, F.H.C. Multivariate Analysis, (1995) Arnorld, New York [2] Bishop, C. M. Neural Networks for Pattern Recognition. (1996). Oxford University Press. [3] McLachlan, G. J. Discriminant Analysis and Statistical Pattern recognition. (1992). Wiley, New York. [4] Haykin, S. NEURAL NETWORKS (1999). PRENTICE HALL 統計多変量解析の観点から ISBN ニューラルネットの教科書 ISBN 統計の専門書,空間判別,ニューラルネットISBN 最近の機械学習,ニューラルネットの紹介 ISBN
6
[5] Harry Hochstadt, INTEGRAL EQUATIONS, Wiley, New
York. [6] Jerome Friendman, Trevor Hastie, Robert Tibshirani, Additive logistic regression: A statistical view of boosting, (2000) Annals of Statistics. [7] Alex J. Smola, Bernhard Schölkopf, A Tutorial on Support Vector Regression (1998) NeuroCOLT. [8] Steve Gunn, Supprt Vector Machines for Classification and Regression, (1998) ISIS Technical Report. [9] C. J.C. Burges, A tutorial on Support Vector Machine for Pattern Recognition, Kluwer Academic Publishers. カーネルの 数学書 ホットな話題 チュウトリアル
7
分類の問題 応用例 文字認識 (郵便番号の自動読み取り) ● ● 音声認識 (電話チケット自動予約) 画像認識 (交通量計測・予測) ● ☆
入力 のパタンから出力 を決める。 トレーニングデータ によって を定める。 応用例 文字認識 (郵便番号の自動読み取り) ● 音声認識 (電話チケット自動予約) ● ● 画像認識 (交通量計測・予測) ☆ クレジットスコアリング ☆ メディカルスクリーニング ☆ 鑑定問題 ☆ 天気予測
8
分類の方法 トレーニングデータ i 番目の出力 i 番目の入力
9
d = 2 方法 : かってな x が与えられた時, 関数 g(x) を使って 次のようにのように y を予測する.
目的 : トレーニングデータ を使って 良い判別関数 g(x) の構成.
10
直感的な学習: 関数 g (x) が次の条件を満たしなさい:
11
線形なモデルの意味 回帰の問題を復習しよう: 確率モデルを建てよう ここで は,誤差を表す.
12
最小2乗法 = min SS 最尤法 = max Likelihood 誤差分布 が ガウス分布 ならば, 最小2乗法 = 最尤法
13
判別関数 g によるルールの誤判別確率をロスにした時の
直感的な学習: 関数 g(x) が次の条件を満たしなさい: ? 確率的設定を考えよう 入力 x と 出力 y の同時分布を とする。 判別関数 g によるルールの誤判別確率をロスにした時の 汎化誤差は ! min 経験誤差は min
14
直感的な学習 AIC, CV,…. トレーニングデータ, テストデータ
15
の同時分布2つの条件付け: ベイズの定理 ベイズルール: 入力 からクラス の中から1つ選ぶルールを で定める。 事前分布 から事後分布
への変化 ベイズルール: 入力 からクラス の中から1つ選ぶルールを で定める。
16
ベイズルールによる判別空間 の 誤判別確率 の良さについて見てみよう 一般に、判別 ルール が 与えられたとき 誤判別 の 確率は
で与えられる。
19
2次元正規分布
20
条件付き分布
22
4 2 -6 -4 -2 2 4 6 -2 -4
23
が わかっている状況は ほとんどのケース ありえない。
以上の考察の結論 入力 と出力 の同時確率の分布 がわかっているなら ベイズルール が最適である。 問題点 が わかっている状況は ほとんどのケース ありえない。 そこで, 次にパラメトリックケース: 分布は未知だけど、分布形 ( パラメトリック形 ) はわかっている を考えよう
24
仮定: 指数型 (ここで y=±1) すると ここで
25
が指数型ならば ベイズルールによる判別関数は
が指数型ならば ベイズルールによる判別関数は と成る. を学習すれば良い. 結論はトレーニングデータから
26
トレーニングデータ に対して 条件付尤度は と書ける これを使って を ロジスティック判別関数 と呼ぶ。
27
を求めるアルゴリズム 勾配法 学習率 反復重み付け最小二乗法 などがある
28
が計算される。 これを フィッシャーの線形判別関数 と呼ぶ
フィッシャー の線形判別関数 の仮定ではベイズルールと 書かれる を計算すると より が計算される。 これを フィッシャーの線形判別関数 と呼ぶ
29
入力データベクトルが,グループ内で 多変量正規分布して,グループ間では 平均のみ異なると仮定する フィッシャー線形判別 入力データベクトルが,指数型分布 して,グループ間ではパラメータが 異なると仮定する ロジステック判別 サポートベクターマシン マージン最大化
30
超平面の幾何 ここで を の 超平面と呼ぶ ● の法線ベクトルは である。
31
法線 の直交補空間を と表す この時 と書ける
32
さて を取ろう。この時、 と書ける。ここで これより なので
33
このように 点 から への距離は となる これから は、直交補空間 を原点 から だけ平行移動したものといえる
34
サポートベクターマシン 超局面 の w は超局面と 1:1 でない. このとき この等号を満たす をサポートベクターと呼ぼう.
35
サポートベクターマシンは次の形で定義される。
サポートベクターを含む2平面 と の間の距離は となる。 とおくと、 の最大化は の最小化と同値なので サポートベクターマシンは次の形で定義される。 Subject to
36
双対問題 主問題のラグランジュ関数は
37
クーン タッカー条件より サポートベクターマシンによる判別関数は
38
パタンが線形分離可能でないとき、 スラック変数 は、1 を越える時上の図に対応する。 主問題 双対問題
39
入力ベクトル x から特徴ベクトルへの写像を
カーネル法 入力ベクトル x から特徴ベクトルへの写像を とすると の線形な判別関数 サポートベクターマシンによる学習は を解いて実行される
40
サポートベクターマシンは, を作る. これから, 内積カーネルを と定めれば
41
特徴ベクトル の具体的な形は必要でなく 内積カーネル さえ与えれば実行できる 例題 例えば,d = 2 の場合
42
例題 XOR 問題 トレーニングデータ 入力 x 出力 y 内積カーネル (-1, -1) + 1 (-1, + 1) -1 ( + 1, -1) -1 ( + 1, + 1) + 1
44
10
45
この性質はカーネルサポートベクターマシンだけの良さなのだろうか?
46
命題 y ( +1, +1, + 1, + 1,-1, -1) (-1,-1, + 1, -1 + 1, -1 ) (-1,-1, + 1, -1-1, + 1) ( +1, +1, + 1, , + 1) 例題 XOR 問題 の 問題 では サポートベクターは 2次 カーネルを使えば 良い性質が示された. しかし,この良さは、 ロジスティック も アダブーストも 同様に 持っている性質 である。
47
フィッシャー線形判別 ロジステック判別 ベイズルールの パラメトリック版 サポートベクターマシン マージン最大化 確率的考察ではない VC 次元の考察 .. . .
48
ラベルミッシング サポートベクター Boosting グラフィカルモデル ニユーラルネット 主成分分析 独立成分分析 層別逆回帰分析
混合分布 ラベルミッシング サポートベクター Boosting
49
第7幕終わり...
50
混合分布モデル 混合比 成分分布 混合分布 ダミー(潜在)変数 Z の導入 4 2 1 3
51
EMアルゴリズムはこの性質を利用して作られる.
x が与えられた時の Z = r の条件付密度は, EMアルゴリズムはこの性質を利用して作られる.
52
EM アルゴリズム 初期点: , データ E- ステップ: M- ステップ:
Similar presentations
© 2024 slidesplayer.net Inc.
All rights reserved.