ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.

Slides:



Advertisements
Similar presentations
1 小暮研究会2 第1章ベイジアンアルゴリズ ム 2値選択 ベルヌーイ試行 尤度原理 同一性 交換可能性 尤度についてのまとめ 環境情報学部3年 渡邊洋一.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
潜在クラス分析入門 山口和範. 内容 条件付独立 シンプソンのパラドックス 対数線形モデルにおける表現 局所独立 潜在変数モデル Lem 入門.
一般化線形モデル(GLM) generalized linear Models
数理統計学(第五回) 統計的推測とは? 浜田知久馬 数理統計学第5回.
Pattern Recognition and Machine Learning 1.5 決定理論
Bassモデルにおける 最尤法を用いたパラメータ推定
奈良女子大集中講義 バイオインフォマティクス (6) モチーフ発見・隠れマルコフモデル
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
時空間データからのオブジェクトベース知識発見
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
ベイジアンネットワーク概説 第5章 ベイジアンネットワークの応用 5.1 ベイジアンネットワークのソフトウェア BayoNet
ベイズ的ロジスティックモデル に関する研究
質的データの分析手法 ---プロビットモデル・ロジットモデルの概要---
エージェントアプローチ 人工知能 21章 B4 片渕 聡.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
確率モデルによる 画像処理技術入門 --- ベイズ統計と確率的画像処理 ---
京都大学 化学研究所 バイオインフォマティクスセンター
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
ベイジアンネットワーク概説 3.6 構造の探索アルゴリズム
【小暮研究会2】 「ベイズのアルゴリズム」:序章 【1,2:計量経済分析と統計分析】 【 3:ベイズ定理】
東京工業大学 機械制御システム専攻 山北 昌毅
相関分析.
データ解析 静岡大学工学部 安藤和敏
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
奈良女子大集中講義 バイオインフォマティクス (9) 相互作用推定
第9章 混合モデルとEM 修士2年 北川直樹.
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
完全2部グラフ型ボルツマンマシンにおける平均場近似自由エネルギーの 漸近的挙動
予測に用いる数学 2004/05/07 ide.
2009年12月4日 ○ 前田康成(北見工業大学) 吉田秀樹(北見工業大学) 鈴木正清(北見工業大学) 松嶋敏泰(早稲田大学)
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
統計解析 第1回 条件付き独立性と確率的グラフィカルモデル 本講義の全体像
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
ベイズ・アプローチによる グラフィカル・テスト理論
不完全な定点観測から 真の不正ホストの分布が分かるか?
ベイジアンネットワーク概説 Loopy Belief Propagation 茨城大学工学部 佐々木稔
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
経営学研究科 M1年 学籍番号 speedster
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
過学習を考慮した IS1-60 AAMパラメータの選択と回帰分析による 顔・視線方向同時推定 顔・視線同時推定 研究背景
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
人工知能特論II 第8回 二宮 崇.
ベイズ音声合成における 事前分布とモデル構造の話者間共有
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
決定木-III Occam’s razor(オッカムの剃刀) Minimum Description Length (最小記述長) 枝刈り
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの 数学的基礎 3.1 ベイジアンネットワークモデルの概要
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
法数学における ベイジアンネットワーク(2) ~成書で学ぶ~
阿久津 達也 京都大学 化学研究所 バイオインフォマティクスセンター
Q状態イジング模型を用いた多値画像修復における 周辺尤度最大化によるハイパパラメータ推定
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史

3.5.1 情報量基準 現象を説明する複数のモデルがあった場合、どのモデルがよいか/選択すべきか?  → 情報量基準を基に選択   (1) 期待対数尤度からのアプローチ       例:AIC、TIC、CAIC   (2) 予測分布からのベイズアプローチ       例:BIC、MDL、ABIC

最適なモデルとは → AICを最小にするモデル (尤度大、パラメータ数少) 3.5.1 情報量基準: 最大対数尤度利用 (1) ■ AIC (Akaike information criterion): データとの適合度 (モデルのあてはめ誤差) パラメータ数多のペナルティ (モデルの複雑さ) (3.8) ※2は対数尤度比検定との兼ね合いから 最適なモデルとは → AICを最小にするモデル              (尤度大、パラメータ数少)

※ J=Rのとき tr{J-1R}=km となりAICに一致 3.5.1 情報量基準: 最大対数尤度利用 (2) ■ TIC (Takeuchi information criterion): パラメータ数多のペナルティをAICより精密に評価 (3.9) ※ J=Rのとき tr{J-1R}=km となりAICに一致

-問題点- AIC、TICは漸近的一致性(データ数N→∞で推定値 m/θ→真の値 m*/θ*)が欠如 3.5.1 情報量基準: 最大対数尤度利用 (3) -問題点- AIC、TICは漸近的一致性(データ数N→∞で推定値 m/θ→真の値 m*/θ*)が欠如 ■ CAIC (consistent Akaike information criterion): (3.10) パラメータ数多のペナルティはデータ数Nに依存

モデルの集合(ありうるモデルの集まり)を考える モデルmに対し、(モデルの集合上の)事前分布p(m)が与えられた場合の事後分布 3.5.1 情報量基準: ベイズ的アプローチ (1) ーベイズ的アプローチによる情報量基準ー 最大対数尤度を介さない モデルの集合(ありうるモデルの集まり)を考える モデルmに対し、(モデルの集合上の)事前分布p(m)が与えられた場合の事後分布 パラメータの重み(事前分布) 予測分布: → -E[log p(m|X)]最小のモデルを選択

3.5.1 情報量基準: ベイズ的アプローチ (2) ■ BIC (Bayesian information criterion): (3.11) 情報理論的アプローチからのMDL (minimum description length)基準に一致 [事前分布(条件付確率)の積極的解釈] 漸近的一致性をもつ

3.5.2 数値例 (1) 癌転移 1 血清中のカルシ ウム量の増加 2 3 脳腫瘍 4 5 昏睡状態 激しい頭痛 図3.1 ベイジアンネットワークの因果モデル例

図3.1+表3.1でN'ijk=1(事前分布に一様分布)を仮定 3.5.2 数値例 (2) 図3.1+表3.1でN'ijk=1(事前分布に一様分布)を仮定

3.5.3 ベイジアンネットワークの予測分布 (1) モデルの予測分布が解析的に求まれば、高精度のモデルを選択可能な情報量基準を作成することができる ■ 事前分布p(Θ|Bs)が一様分布であるとしたときの予測分布 (3.12) (3.13)

■ 事前分布p(Θ|Bs)がディレクレ分布であるとしたときの予測分布 3.5.3 ベイジアンネットワークの予測分布 (2) ■ 事前分布p(Θ|Bs)がディレクレ分布であるとしたときの予測分布 (3.14) → 式(3.14) = 式(3.13)

図3.1+表3.1でN'ijk=1(事前分布に一様分布)を仮定した場合の予測分布 3.5.4 数値例 図3.1+表3.1でN'ijk=1(事前分布に一様分布)を仮定した場合の予測分布 データ数が少ない場合、観測されない変数のパターンが出現(Nijk=0)し、計算が困難な場合がある