教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .

Slides:



Advertisements
Similar presentations
北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー.
Advertisements

母平均の区間推定 ケース2 ・・・ 母分散 σ 2 が未知 の場合 母集団(平均 μ 、分散 σ 2) からの N 個の無作為標本から平均値 が得られてい る 標本平均は平均 μ 、分散 σ 2 /Nの正規分布に近似的に従 う 信頼水準1- α で区間推定 95 %信頼水準 α= % 信頼水準.
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Lesson 9. 頻度と分布 §D. 正規分布. 正規分布 Normal Distribution 最もよく使われる連続確率分布 釣り鐘形の曲線 -∽から+ ∽までの値を取る 平均 mean =中央値 median =最頻値 mode 曲線より下の面積は1に等しい.
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
看護学部 中澤 港 統計学第5回 看護学部 中澤 港
非侵襲脳活動計測(fMRI)と(MEG)情報統合とその応用
確率と統計 平成23年12月8日 (徐々に統計へ戻ります).
統計解析 第7回 第6章 離散確率分布.
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
【MedR】第12回 東京大学医学系研究科 特任助教 倉橋一成.
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
Pattern Recognition and Machine Learning 1.5 決定理論
統計解析 第9回 第9章 正規分布、第11章 理論分布.
統計的仮説検定の考え方 (1)母集団におけるパラメータに仮説を設定する → 帰無仮説 (2)仮説を前提とした時の、標本統計量の分布を考える
流れ(3時間分) 1 ちらばりは必要か? 2 分散・標準偏差の意味 3 計算演習(例題と問題) 4 実験1(きれいな山型の性質を知ろう)
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
第 七 回 双対問題とその解法 山梨大学.
京都大学 化学研究所 バイオインフォマティクスセンター
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.
【小暮研究会2】 「ベイズのアルゴリズム」:序章 【1,2:計量経済分析と統計分析】 【 3:ベイズ定理】
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
相関分析.
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
 統計学講義 第11回     相関係数、回帰直線    決定係数.
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Statistical Physics and Singularity Theory
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
領域ベースの隠れ変数を用いた画像領域分割
第9章 混合モデルとEM 修士2年 北川直樹.
Mathematical Learning Theory
物理学者でない人 のための統計力学 東京工業大学 渡辺澄夫 DEX-SMI 1/1/2019.
正規分布確率密度関数.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)
Algebraic Geometry of Learning Machines
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
訓練データとテストデータが 異なる分布に従う場合の学習
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
独立成分分析 (ICA:Independent Component Analysis )
標本分散の標本分布 標本分散の統計量   の定義    の性質 分布表の使い方    分布の信頼区間 
完全2部グラフ型ボルツマンマシンにおける平均場近似自由エネルギーの 漸近的挙動
ボルツマンマシンの定義 ボルツマンマシン(Boltzmann machine)は、スピン・システムをヒントに作られたモデルである。
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
ベイズ・アプローチによる グラフィカル・テスト理論
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
経営学研究科 M1年 学籍番号 speedster
データ解析 静岡大学工学部 安藤和敏
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
人工知能特論II 第8回 二宮 崇.
ベイズ音声合成における 事前分布とモデル構造の話者間共有
ポッツスピン型隠れ変数による画像領域分割
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
第3章 統計的推定 (その2) 統計学 2006年度 <修正・補足版>.
一般ボルツマンマシンにおける平均場近似自由エネルギーの漸近的挙動
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  

Mathematical Learning Theory 混合正規分布 w = (ak , bk ,σk) K k=1 1 (2πσk2)N/2 || x – bk ||2 2σk2 p(x|w) = ∑ ak       exp( - ) K k=1 平均 bk ,分散σk2 の       正規分布 ∑ ak = 1 2018/12/31 Mathematical Learning Theory

Mathematical Learning Theory 混合正規分布 平均 bk ,分散σk2 の正規分布の比 {ak} の和 2018/12/31 Mathematical Learning Theory

Mathematical Learning Theory 隠れ変数(潜在変数)   1 (2πσk2)N/2 || x – bk ||2 2σk2 K k=1 p(x|w) = ∑ ak      exp( - ) y について和をとると一致   1 (2πσk2)N/2 || x – bk ||2 2σk2 K k=1 p(x,y|w) = Π [ ak      exp( - ) ] yk y = (y1,y2,..,yk )はひとつだけ1で残りは0。つまり y ∈{(1,0,..,0), (0,1,0,…,0),…,(0,0,…,1)} 2018/12/31 Mathematical Learning Theory

Mathematical Learning Theory 変分ベイズ法1 ベイズ法では、事後分布を作る必要がある。 n i=1 p(w|xn) = (1/Z) φ(w) Π p(xi |w) (隠れ変数、パラメータ)の事後分布を求めて yn について和をとればよい。 n i=1 p(yn,w | xn) = (1/Z) φ(w) Π p(xi,yi|w) (隠れ変数、パラメータ)の事後分布を r(yn)s(w) で近似する。 p(yn,w | xn) ≒r(yn)s(w) 2018/12/31 Mathematical Learning Theory

Mathematical Learning Theory 変分ベイズ法2 r(yn)s(w)と事後分布のカルバックライブラ距離の最小化する。 L(r,s)=∫∫ r(yn)s(w) log ( r(yn)s(w) / p(yn,w|xn) ) dyn dw この最小化問題は、(r,s)のどちらか一方が与えられていれば、 もう一方は解ける。・・・再帰的に解くことにする。 局所解の問題があるが、以下では L(r,s) を最小化できる場合を考える。 もしも yn と w が独立ならば、min L(r,s)=0。 変分ベイズ法だけでは min L(r,s) の値はわからない。 2018/12/31 Mathematical Learning Theory

Mathematical Learning Theory 問題1 真2個、学習モデル2個の場合を考える。 隠れ変数とパラメータはいつ独立に近いか。 r(yn) s(w) ? p(yn,w | xn) 2018/12/31 Mathematical Learning Theory

Mathematical Learning Theory 問題2 真の分布が ↓ のとき 変分ベイズの結果は 2018/12/31 Mathematical Learning Theory