「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習

Slides:



Advertisements
Similar presentations
母平均の区間推定 ケース2 ・・・ 母分散 σ 2 が未知 の場合 母集団(平均 μ 、分散 σ 2) からの N 個の無作為標本から平均値 が得られてい る 標本平均は平均 μ 、分散 σ 2 /Nの正規分布に近似的に従 う 信頼水準1- α で区間推定 95 %信頼水準 α= % 信頼水準.
Advertisements

土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
確率と統計 平成23年12月8日 (徐々に統計へ戻ります).
統計解析 第7回 第6章 離散確率分布.
補章 時系列モデル入門 ー 計量経済学 ー.
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
Pattern Recognition and Machine Learning 1.5 決定理論
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
統計解析 第9回 第9章 正規分布、第11章 理論分布.
Bassモデルにおける 最尤法を用いたパラメータ推定
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
大数の法則 平均 m の母集団から n 個のデータ xi をサンプリングする n 個のデータの平均 <x>
時空間データからのオブジェクトベース知識発見
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
制約条件の確率的選択に基づく 資源追加削減法の改良 三木 光範(同志社大工) 廣安 知之(同志社大工) ○小林 繁(同志社大院)
第3章 補足:パラメータが極小値に収束する例
東京工業大学 機械制御システム専攻 山北 昌毅
補章 時系列モデル入門 ー 計量経済学 ー.
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
果物識別 マハラノビス距離を求める.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
相関分析.
第6章 連立方程式モデル ー 計量経済学 ー.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
第9章 混合モデルとEM 修士2年 北川直樹.
Mathematical Learning Theory
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
構造情報に基づく特徴量を用いた グラフマッチングによる物体識別 情報工学科 藤吉研究室  EP02086 永橋知行.
強化学習を用いたバックギャモンプレイヤーの生成 TD-Gammon
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
Data Clustering: A Review
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
ボルツマンマシンの定義 ボルツマンマシン(Boltzmann machine)は、スピン・システムをヒントに作られたモデルである。
パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/26 早稲田大学大学院理工学研究科講義.
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
経営学研究科 M1年 学籍番号 speedster
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
人工知能特論II 第8回 二宮 崇.
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
第3章 統計的推定 (その2) 統計学 2006年度 <修正・補足版>.
統計現象 高嶋 隆一 6/26/2019.
Mathematica Package (BimodalAnalysis.m)
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習 報告者 佐々木 稔 2003年8月1日 第3章 複雑な学習モデル  3.2 競合学習   3.2.1 確率競合モデル   3.2.2 混合正規モデルの推論   3.2.3 混合分布の最急降下法   3.2.4 確率競合モデルとEMアルゴリズム   3.2.5 EMアルゴリズム   3.2.6 ノンパラメトリック学習   3.2.7 自己組織化写像

一般的なモデルでのEMアルゴリズム 確率モデル p(x, u | w) 競合的な確率変数 U は観測されない 観測データ x1, x2, ・・・, xn 最適な分布となるパラメータを学習する

EMアルゴリズムの概略図 山の形(分散)は同じで中心(分布の平均)が最適な場所に移動 学習データ 中心の初期値 から に 中心移動が繰り 返される

w を固定したとき、u の関数 f(u) の平均 損失関数 損失関数を最小にするパラメータを見つける w を固定したとき、u の関数 f(u) の平均 u は 0 と 1 だけとるので、

EMアルゴリズム w1 を初期化 w1 を固定して G(w1, w2) が 最小となるように w2 を定める。(Eステップ)

w2 における損失関数

右辺第2項はカルバックの擬距離 G*(w1, w2) は、 「w2 が Ln(w2) を最小にし、かつ w1=w2」 のとき最小で、最小値は「nLn(w2) の最小値」と等しい

w1 を固定し、G(w1, w2) を最小にする w2 を見つける 最小値 w2 には関係ない定数 G*(w1, w2) の値は減少する

w1 に w2 を代入する w1、w2 が同じ値なので、擬距離は 0 G*(w1, w2) の値は、最適化したい 損失関数 nLn(w2) に等しくなる Ln(w2) を小さくするパラメータ w2 が見つかる

[注27] 局所解に落ちた場合 その局所解に収束してしまうかどうか 繰り返しで局所解から脱出するのかどうか 詳しい動作はまだ明らかになっていない 「だいたいよい推定量」を探すことも多い 理論的にも実用的にも重要な問題

確率競合モデルのEMアルゴリズム パラメータ w : 確率変数 X, U ここで、パラメータ bh での確率分布 q(x | bh)

固定したパラメータ w1 = w = (ah, bh), bh = (ξh, σh) w に固定したときの uh の平均 Ei(h) u の平均値 Ei(h) をすべての xi に関して和を求める

Gn(w, w) が最小となる w を求める (係数) (正規分布の平均) (正規分布の分散)

[注28] 与えられたデータをいくつかのクラスタに分類 K-means 法 データ {xi ∈ RM; i = 1, 2, ・・・, n} データを H 個のクラスタに分類する クラスタ Ch の重心 ξh データ xi を距離 || xi – ξh|| が最小になる クラスタ Ch に分類し、重心 ξh を再計算 クラスタの重心 {ξh} を繰返し求めて最適化

[注28]の続き EMアルゴリズムを使う場合の注意 クラスタの大きさに偏りがある場合、 偏りを緩和させる必要 クラスタの個数 H を最適化する際、 情報量規準を使うことはできない 損失関数の2次近似をすることができない 比較的大きめな H を決めて、EMアルゴリズムを 少ない回数で停止させるとクラスタの偏りが緩和

例46 確率競合型モデルと3層パーセプトロンの比較 10人が描いた 8×8 ピクセルの ○、△、× の 画像 600 例を学習 同じく10人が描いた 8×8 ピクセルの 画像 600 例をテストに用いる 確率競合型モデル K-means法で初期化したパラメータを最急降下法で学習 3層パーセプトロン 誤差逆伝播法で学習

中間ユニット数 20 までの場合の認識率 確率競合型モデル 96~98.5% 3層パーセプトロン 98~98.5% 中間ユニット数 20 までの場合の認識率 確率競合型モデル 98.5~99% 3層パーセプトロン 98~98.5%