発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則

Slides:



Advertisements
Similar presentations
HBSP モデル上での 行列積を求めるアルゴリ ム 情報論理工学 吉岡健太.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
「わかりやすいパターン認識」 第1章:パターン認識とは
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
Pattern Recognition and Machine Learning 1.5 決定理論
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
線形代数学 4.行列式 吉村 裕一.
9. Unsupervised Learning
10.通信路符号化手法2 (誤り検出と誤り訂正符号)
第3章 補足:パラメータが極小値に収束する例
第4章 線形識別モデル 修士2年 松村草也.
第6章 カーネル法 修士2年 藤井 敬士.
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
3. 可制御性・可観測性.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
第25章 単一始点最短路 3節 Bellman-Fordのアルゴリズム
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
音高による音色変化に着目した音源同定に関する研究
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
6. ラプラス変換.
訓練データとテストデータが 異なる分布に従う場合の学習
「R入門」  5.7 行列に対する諸機能  10月23日 (木) 発表者 大城亜里沙.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
Introduction to Soft Computing (第11回目)
知能システム論I(13) 行列の演算と応用(Matrix) 2008.7.8.
分子生物情報学(2) 配列のマルチプルアライメント法
Data Clustering: A Review
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
部分的最小二乗回帰 Partial Least Squares Regression PLS
ニューラルコンピューティングを理解する 2006/12/12 Graduate School of Media and Governance
顔特徴点移動量・点間距離変化量の組み合わせに基づく顔表情認識
知識科学研究科 知識システム構築論講座 林研究室 佛明 智
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
サポートベクターマシン Support Vector Machine SVM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
第16章 動的計画法 アルゴリズムイントロダクション.
直並列グラフの連続多重彩色 西関研究室 吉田進太郎.
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
ポッツスピン型隠れ変数による画像領域分割
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
パターン認識特論 ADA Boosting.
確率論・数値解析及び演習 (第7章) 補足資料
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
ヒープソート.
パターン認識特論 ADA Boosting.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
グラフの帯域幅連続多重彩色 を求めるアルゴリズム (Bandwidth Consective Multicolorings of Graphs) 西関研究室 西川和秀.
Presentation transcript:

発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則 わかりやすいパターン認識 発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習         3.1 Widrow-Hoffの学習規則

[1] 学習のための評価関数 パーセプトロンの学習規則の欠点 線形分離可能であることが必要 一般に、線形分離可能か不可能かを    (誤識別を0にする線形識別関数が       存在することを前提としなくてはならない) 一般に、線形分離可能か不可能かを           事前に確認することは困難 線形分離不可能な学習パターンでは、   誤り訂正の手続きを無限に繰り返し解に到達することができない。   途中で打ち切ってもそのときの重みが最適であるとは限らない。

[1] 学習のための評価関数 学習パターン: C個の識別関数の出力: ωc ω1 ωi 教師ベクトル(教師信号): 割り当てるとすると教師ベクトルti はc個用意すればよい   例. ・・・・・(3.2) x ・・・・・・・ ・・・・・・・・・ ti ωc tc ω1 教師ベクトル   t1 ωi

[1] 学習のための評価関数 入力xpに対する誤差: 誤差の二乗和を評価関数Jpとする(重みベクトルwiの関数)

[1] 学習のための評価関数 全パターンに対する二乗誤差J ・・・(3.9) 最適な重みベクトルwはこれが最小となるもの

[1] 学習のための評価関数

[1] 学習のための評価関数 C=2(2クラス)の場合重みベクトルは一つでよい bpの設定例

[2]閉じた形の解 J(w)に対しての勾配ベクトル(gradient vector) 2乗誤差 の最小解を求める方法 これを解けばよい 勾配≠0 これを解けばよい 勾配=0

[2]閉じた形の解 パターン行列(n×(d+1)型行列) X: クラスiの教師信号(i=1,2,・・・,c): このように定義すると ・・・・・・・・・・・・・(3.20)

[2]閉じた形の解 式(3.20)より が正則であるとすると 線形判別法の特殊な場合と解釈できる (i=1,2,・・・,c) ・式(3.2)(教師ベクトルの例)は異なるクラスには互いに           区別のしやすい教師ベクトルを対応させることを示している ・全パターンに対する2乗誤差(式(3.9))を最小化することは、    同じクラスのパターンを同じ教師ベクトルの近傍に集中させることを示している 線形判別法の特殊な場合と解釈できる

[3]逐次近似による解 閉じた形の解では あまり実用的ではない 逐次近似により重みを決定する方法(最急降下法)      が正則でない場合には適用できない dが大きいと計算量が膨大 あまり実用的ではない 逐次近似により重みを決定する方法(最急降下法)

[3]逐次近似による解 重みベクトル 最終的にJの最小解に到達 逐次更新される ρ:刻み幅(正定数) 以降はパターンが示されるたびに修正を行うことにする (i=1,2,・・・,c)

[3]逐次近似による解 (gi(xp)をgipと略記する) ・右辺第1項 ・右辺第2項

[3]逐次近似による解 Widrow-Hoff の学習規則(Widrow-Hoff learning rule) 重みベクトルはこのように逐次更新されていく Widrow-Hoff の学習規則(Widrow-Hoff learning rule) デルタルール(delta rule)、直交化学習、最小二乗学習などとも呼ばれる