「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル

Slides:



Advertisements
Similar presentations
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
Advertisements

ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
Bassモデルにおける 最尤法を用いたパラメータ推定
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
回帰分析.
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
第12章 連続潜在変数 修士 1年 村下 昇平.
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
デジタル信号処理④
第4章 線形識別モデル 修士2年 松村草也.
東京工業大学 機械制御システム専攻 山北 昌毅
計測工学 復習.
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
相関分析.
VII. 空間モデル.
第6章 連立方程式モデル ー 計量経済学 ー.
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Statistical Physics and Singularity Theory
奈良女子大集中講義 バイオインフォマティクス (9) 相互作用推定
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
第9章 混合モデルとEM 修士2年 北川直樹.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
確率伝搬法と量子系の平均場理論 田中和之 東北大学大学院情報科学研究科
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
顧客維持に関するモデル.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
Introduction to Soft Computing (第11回目)
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
分子生物情報学(2) 配列のマルチプルアライメント法
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/26 早稲田大学大学院理工学研究科講義.
知識科学研究科 知識システム構築論講座 林研究室 佛明 智
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
経営学研究科 M1年 学籍番号 speedster
サポートベクターマシン Support Vector Machine SVM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
人工知能特論II 第8回 二宮 崇.
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
◎小堀 智弘,菊池 浩明(東海大学大学院) 寺田 真敏(日立製作所)
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
パターン認識特論 カーネル主成分分析 和田俊和.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル 報告者 佐々木 稔 2003年6月25日 第3章 複雑な学習モデル  3.1 関数近似モデル   3.1.1 関数近似モデルの定義   3.1.2 関数近似モデルの学習   3.1.3 3層パーセプトロン   3.1.4 球形基底関数、RBF

複雑な学習モデル 神経回路網モデルとその学習アルゴリズム 学習の性質は完全に解明されてはいない 実データの学習、認識、予測において有効性を実証 神経回路網モデルに使われる関数近似 モデルの定義と学習について説明

(Function Approximation Model) 関数近似モデル 入力 から、n 次元空間に出力する関数 f (x, w) (w∈Rd はパラメータ) 出力空間上の確率変数 Y 雑音 Z (平均 0 の RM 上の確率変数) Y = f (x, w) + Z 関数近似モデル (Function Approximation Model)

Z が確率関数 q( ・ ) を持つとき 関数近似モデルの条件付き確率 p(y | x, w) は 特に、 q( ・ ) が平均 0、共分散行列 σ2I の正規分布ならば このモデルは、関数 f (x, w) で定まるので、 関数のモデルと同じものとみなされる

例 T 個の観測データからなる1次元データ {(x(t), y(t)) | t = 1, ・・・, T} 線形モデル y = ax で近似(傾き a を決定する) 二乗誤差 E を最小にする

線形モデル y = ax は原点を通る直線 近似できる関数は限られたものになる K 個の関数の集合 {ki(x) | i = 1, ・・・, K} を 用い、その線形結合で関数を近似する kj(x) はカーネル関数と呼ばれる (一般に非線形関数が使われる)

例37 R1 上の関数を学習する時の代表的なモデル 多項式モデル フーリエ級数モデル 損失関数がパラメータの2次式となり、 最尤推定量を線形演算で求められる

例38 : 関数基底系 R1 から R1 への関数近似モデル R2 から R1 への関数近似モデル 高次元のモデルに拡張が可能 ahk のパラメータ数が指数乗で増加する

関数近似モデルの学習 最急降下法 p(y | x, w, σ) の学習誤差 Ln(w, σ) Ln(w, σ) を最小にするパラメータ (w, σ) を計算 最急降下法 (前回の2.2節参照)

一括学習の最急降下法(37ページ参照) のとき、 w の最適値 が得られれば、 σ の最適値 も得られる

w についての微分方程式 を用いて最適値 を求め、 を算出 各サンプルから逐次学習を行う場合(41ページ参照) サンプルの組 (xi, yi) ランダムに選ぶ 以下の逐次学習アルゴリズムを繰り返す