要論B 講義日程 12/18 1. Overview,ニユーラルネット (福水) 2. グラフィカルモデル (土谷)

Slides:



Advertisements
Similar presentations
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Advertisements

多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
Pattern Recognition and Machine Learning 1.5 決定理論
Bassモデルにおける 最尤法を用いたパラメータ推定
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
人工知能概論 第11回学習と認識(2) パターン認識
時空間データからのオブジェクトベース知識発見
H25年5月22日(水) 中央水研 「水産資源のデータ解析入門」 Terrapub
回帰分析.
ベイズ的ロジスティックモデル に関する研究
質的データの分析手法 ---プロビットモデル・ロジットモデルの概要---
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
透視投影(中心射影)とは  ○ 3次元空間上の点を2次元平面へ投影する方法の一つ  ○ 投影方法   1.投影中心を定義する   2.投影平面を定義する
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
第4章 線形識別モデル 修士2年 松村草也.
東京工業大学 機械制御システム専攻 山北 昌毅
Generative Topographic Mapping (GTM) でデータの 可視化・回帰分析・モデルの 逆解析を一緒にやってみた
ガウス過程による回帰 Gaussian Process Regression GPR
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
相関分析.
データ解析 静岡大学工学部 安藤和敏
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
3. 可制御性・可観測性.
PCAからICAへ? 狩野裕+清水昌平 (大阪大学人間科学部) 日本行動計量学会:東京大学 平成12年10月.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Statistical Physics and Singularity Theory
決定木とランダムフォレスト 和田 俊和.
第9章 混合モデルとEM 修士2年 北川直樹.
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第14章 モデルの結合 修士2年 山川佳洋.
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
訓練データとテストデータが 異なる分布に従う場合の学習
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
予測に用いる数学 2004/05/07 ide.
主成分分析 Principal Component Analysis PCA
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
Data Clustering: A Review
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
部分的最小二乗回帰 Partial Least Squares Regression PLS
パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/26 早稲田大学大学院理工学研究科講義.
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
経営学研究科 M1年 学籍番号 speedster
サポートベクターマシン Support Vector Machine SVM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
人工知能特論II 第8回 二宮 崇.
データ解析 静岡大学工学部 安藤和敏
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
音響伝達特性を用いた単一チャネル 音源位置推定における特徴量選択の検討
パターン認識特論 カーネル主成分分析 和田俊和.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
Fourier 変換 Mellin変換 演習課題
ランダムプロジェクションを用いた音響モデルの線形変換
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

要論B 講義日程 12/18 1. Overview,ニユーラルネット (福水) 2. グラフィカルモデル (土谷) 要論B 講義日程  12/18 1. Overview,ニユーラルネット   (福水) 2. グラフィカルモデル (土谷) 12/19 3. 主成分分析 (南) 4. 独立成分分析 (南) 12/20 5.射影追跡法、 層別逆回帰分析 (栗木) 6.混合分布 (江口) 12/21 7.サポートベクター,ロジスティック (江口) 8.Boosting   (福水)

ニユーラルネット グラフィカルモデル 主成分分析 独立成分分析 層別逆回帰分析 混合分布 Boosting サポートベクター

7.サポートベクターマシンと ロジスティック回帰 世の中、多くの問題は分類の問題に帰着できる。 そして永遠の未解決問題でもある。 もしこの問題が解決されるなら、投資家は決して損をしないだろうし 天気予報官は、確率予測をしなくてもよくなり、世の中に失恋も、倒産も なくなるかもしれない….

サポートベクター 混合分布 確率モデルとして,分布が混合されることのクリアな説明を試みる. ○ 潜在変量=グループ・ラベルの理解 ○ 最尤推定値を求める EM アルゴリズムの紹介 ○ 例題として,神経回路の量子解析のシナプス可塑性 分類の問題を考えるとき,確率モデルを考える必要性を強調する. 確率モデルは混合分布モデルのある類推から導入する. ○ ベイズルールの最適性を示す. ○ パラメトリックモデル,特に線形モデルを仮定して,プラグインルールの説明をする. このフレイムワークの下で ロジスティック判別は自然に導入されることを示す. ○ トレーニング・ロス,汎化誤差の説明をする. ○ サポートベクター・マシンの説明 ○ VC次元の説明 ○ カーネル法の説明 混合分布 サポートベクター

分類方法のための解析 (判別分析) 参考文献 分類方法のための解析 (判別分析) 参考文献 [1] Krazanowski, W. J. & Marriott, F.H.C. Multivariate Analysis, (1995) Arnorld, New York [2] Bishop, C. M. Neural Networks for Pattern Recognition. (1996). Oxford University Press. [3] McLachlan, G. J. Discriminant Analysis and Statistical Pattern recognition. (1992). Wiley, New York. [4] Haykin, S. NEURAL NETWORKS (1999). PRENTICE HALL 統計多変量解析の観点から ISBN 0340593253 ニューラルネットの教科書 ISBN 0198538642 統計の専門書,空間判別,ニューラルネットISBN0471615315 最近の機械学習,ニューラルネットの紹介 ISBN 0132733501

[5] Harry Hochstadt, INTEGRAL EQUATIONS, Wiley, New York. [6] Jerome Friendman, Trevor Hastie, Robert Tibshirani, Additive logistic regression: A statistical view of boosting, (2000) Annals of Statistics. [7] Alex J. Smola, Bernhard Schölkopf, A Tutorial on Support Vector Regression (1998) NeuroCOLT. [8] Steve Gunn, Supprt Vector Machines for Classification and Regression, (1998) ISIS Technical Report. [9] C. J.C. Burges, A tutorial on Support Vector Machine for Pattern Recognition, Kluwer Academic Publishers. カーネルの 数学書 ホットな話題 チュウトリアル

分類の問題 応用例 文字認識 (郵便番号の自動読み取り) ● ● 音声認識 (電話チケット自動予約) 画像認識 (交通量計測・予測) ● ☆ 入力 のパタンから出力 を決める。 トレーニングデータ によって を定める。 応用例 文字認識 (郵便番号の自動読み取り) ●    音声認識 (電話チケット自動予約) ● ●    画像認識 (交通量計測・予測) ☆ クレジットスコアリング ☆ メディカルスクリーニング ☆ 鑑定問題 ☆ 天気予測

分類の方法 トレーニングデータ i 番目の出力 i 番目の入力

d = 2 方法 : かってな x が与えられた時, 関数 g(x) を使って 次のようにのように y を予測する. 目的 : トレーニングデータ を使って 良い判別関数 g(x) の構成.

直感的な学習: 関数 g (x) が次の条件を満たしなさい:

線形なモデルの意味 回帰の問題を復習しよう: 確率モデルを建てよう ここで は,誤差を表す.

最小2乗法 = min SS 最尤法 = max Likelihood 誤差分布 が ガウス分布 ならば, 最小2乗法 =  最尤法

判別関数 g によるルールの誤判別確率をロスにした時の 直感的な学習:  関数 g(x) が次の条件を満たしなさい: ? 確率的設定を考えよう 入力 x と 出力 y の同時分布を とする。 判別関数 g によるルールの誤判別確率をロスにした時の 汎化誤差は ! min 経験誤差は min

直感的な学習 AIC, CV,…. トレーニングデータ, テストデータ

の同時分布2つの条件付け: ベイズの定理 ベイズルール: 入力 からクラス の中から1つ選ぶルールを で定める。 事前分布 から事後分布 への変化 ベイズルール: 入力 からクラス の中から1つ選ぶルールを で定める。

ベイズルールによる判別空間 の 誤判別確率 の良さについて見てみよう 一般に、判別 ルール が 与えられたとき 誤判別 の 確率は で与えられる。

2次元正規分布

条件付き分布

4 2 -6 -4 -2 2 4 6 -2 -4

が わかっている状況は ほとんどのケース ありえない。 以上の考察の結論 入力 と出力 の同時確率の分布 がわかっているなら ベイズルール が最適である。 問題点 が わかっている状況は ほとんどのケース ありえない。 そこで, 次にパラメトリックケース: 分布は未知だけど、分布形 ( パラメトリック形 ) はわかっている を考えよう

仮定: 指数型 (ここで y=±1) すると ここで

が指数型ならば ベイズルールによる判別関数は が指数型ならば ベイズルールによる判別関数は と成る. を学習すれば良い. 結論はトレーニングデータから

トレーニングデータ に対して 条件付尤度は と書ける これを使って を ロジスティック判別関数 と呼ぶ。

を求めるアルゴリズム 勾配法 学習率 反復重み付け最小二乗法 などがある

が計算される。 これを フィッシャーの線形判別関数 と呼ぶ フィッシャー の線形判別関数 の仮定ではベイズルールと 書かれる を計算すると より が計算される。 これを フィッシャーの線形判別関数 と呼ぶ

入力データベクトルが,グループ内で 多変量正規分布して,グループ間では 平均のみ異なると仮定する フィッシャー線形判別 入力データベクトルが,指数型分布 して,グループ間ではパラメータが 異なると仮定する ロジステック判別 サポートベクターマシン マージン最大化

超平面の幾何 ここで を の 超平面と呼ぶ ● の法線ベクトルは である。

法線 の直交補空間を と表す この時 と書ける

さて を取ろう。この時、 と書ける。ここで これより なので

このように 点 から への距離は となる これから は、直交補空間 を原点 から だけ平行移動したものといえる

サポートベクターマシン 超局面 の w は超局面と 1:1 でない. このとき この等号を満たす   をサポートベクターと呼ぼう.

サポートベクターマシンは次の形で定義される。 サポートベクターを含む2平面 と の間の距離は となる。 とおくと、 の最大化は の最小化と同値なので サポートベクターマシンは次の形で定義される。 Subject to

双対問題 主問題のラグランジュ関数は

クーン タッカー条件より サポートベクターマシンによる判別関数は

パタンが線形分離可能でないとき、 スラック変数 は、1 を越える時上の図に対応する。 主問題 双対問題

入力ベクトル x から特徴ベクトルへの写像を カーネル法 入力ベクトル x から特徴ベクトルへの写像を とすると の線形な判別関数 サポートベクターマシンによる学習は を解いて実行される

サポートベクターマシンは, を作る. これから, 内積カーネルを と定めれば

特徴ベクトル の具体的な形は必要でなく 内積カーネル さえ与えれば実行できる 例題 例えば,d = 2 の場合

例題 XOR 問題 トレーニングデータ 入力 x 出力 y 内積カーネル (-1, -1) + 1 (-1, + 1) -1 ( + 1, -1) -1 ( + 1, + 1) + 1

10

この性質はカーネルサポートベクターマシンだけの良さなのだろうか?

命題 y ( +1, +1, + 1, + 1,-1, -1) (-1,-1, + 1, -1 + 1, -1 ) (-1,-1, + 1, -1-1, + 1) ( +1, +1, + 1, + 1 + 1, + 1) 例題 XOR 問題 の 問題 では サポートベクターは 2次 カーネルを使えば 良い性質が示された. しかし,この良さは、 ロジスティック も アダブーストも 同様に 持っている性質 である。

フィッシャー線形判別 ロジステック判別 ベイズルールの パラメトリック版 サポートベクターマシン マージン最大化 確率的考察ではない VC 次元の考察 .. . .

ラベルミッシング サポートベクター Boosting グラフィカルモデル ニユーラルネット 主成分分析 独立成分分析 層別逆回帰分析 混合分布 ラベルミッシング サポートベクター Boosting

第7幕終わり...

混合分布モデル 混合比 成分分布 混合分布 ダミー(潜在)変数 Z の導入 4 2 1 3

EMアルゴリズムはこの性質を利用して作られる. x が与えられた時の Z = r の条件付密度は, EMアルゴリズムはこの性質を利用して作られる.

EM アルゴリズム 初期点: ,  データ E- ステップ: M- ステップ: