「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習

Slides:



Advertisements
Similar presentations
1 小暮研究会2 第1章ベイジアンアルゴリズ ム 2値選択 ベルヌーイ試行 尤度原理 同一性 交換可能性 尤度についてのまとめ 環境情報学部3年 渡邊洋一.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
データ解析
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
補章 時系列モデル入門 ー 計量経済学 ー.
ウェーブレットによる 信号処理と画像処理 宮崎大輔 2004年11月24日(水) PBVセミナー.
Pattern Recognition and Machine Learning 1.5 決定理論
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
土木計画学 第5回(11月2日) 調査データの統計処理と分析3 担当:榊原 弘之.
統計解析 第9回 第9章 正規分布、第11章 理論分布.
奈良女子大集中講義 バイオインフォマティクス (6) モチーフ発見・隠れマルコフモデル
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
大数の法則 平均 m の母集団から n 個のデータ xi をサンプリングする n 個のデータの平均 <x>
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
ベイズ的ロジスティックモデル に関する研究
クラスター変分法と確率的情報処理 --Belief Propagation と画像処理アルゴリズム--
確率モデルによる 画像処理技術入門 --- ベイズ統計と確率的画像処理 ---
第12章 連続潜在変数 修士 1年 村下 昇平.
京都大学 化学研究所 バイオインフォマティクスセンター
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.
【小暮研究会2】 「ベイズのアルゴリズム」:序章 【1,2:計量経済分析と統計分析】 【 3:ベイズ定理】
補章 時系列モデル入門 ー 計量経済学 ー.
ガウス過程による回帰 Gaussian Process Regression GPR
相関分析.
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Statistical Physics and Singularity Theory
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
第9章 混合モデルとEM 修士2年 北川直樹.
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
第14章 モデルの結合 修士2年 山川佳洋.
顧客維持に関するモデル.
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
完全2部グラフ型ボルツマンマシンにおける平均場近似自由エネルギーの 漸近的挙動
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
ボルツマンマシンの定義 ボルツマンマシン(Boltzmann machine)は、スピン・システムをヒントに作られたモデルである。
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
ベイズ・アプローチによる グラフィカル・テスト理論
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
経営学研究科 M1年 学籍番号 speedster
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第5回 確率変数の共分散 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
回帰分析(Regression Analysis)
データ解析 静岡大学工学部 安藤和敏
HMM音声合成における 変分ベイズ法に基づく線形回帰
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
人工知能特論II 第8回 二宮 崇.
ベイズ音声合成における 事前分布とモデル構造の話者間共有
データ解析 静岡大学工学部 安藤和敏
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの 数学的基礎 3.1 ベイジアンネットワークモデルの概要
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
阿久津 達也 京都大学 化学研究所 バイオインフォマティクスセンター
Q状態イジング模型を用いた多値画像修復における 周辺尤度最大化によるハイパパラメータ推定
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習 報告者 佐々木 稔 2003年5月21日 第2章 学習と統計的推測  2.1 データと学習   2.1.1 学習とは   2.1.2 同時確率密度関数の学習   2.1.3 学習法の意味   2.1.4 学習の尺度

学習とは 入力 出力 組(X, Y) が同時密度関数 q(x, y) をもつ確率変数 独立な n 回の試行での n 組の実現値 (データ、学習データ、サンプル)

学習データ X, Y に関する情報の獲得 獲得した情報からの予測 推定対象 真の密度関数 q(x, y) 条件付き密度関数 q(y | x) 回帰関数 y = E(Y | x) ☆目的によって推定対象も変化

例27 学習を利用した応用例 画像や音声の認識を行うシステム 時系列予測システム 信号の圧縮・復元を行うシステム 人間の言語獲得 広い意味で学習 生物の進化

同時確率密度関数の学習 p(x, y | w) : 同時確率密度関数 w : パラメータ(母数) データを発生している確率変数の (真の)密度関数 q(x, y) を推定 p(x, y | w) : 学習モデルの密度関数 p(x, y | w0) = q(x, y) となるパラメータ w0 が存在 「学習モデルは真の密度関数を含む」

ここでは、両者は同じものとして p(x, y | w) 確率変数 条件付き確率 p(x, y | w) 確率変数ではない p(x, y : w) または、 pw(x, y) ここでは、両者は同じものとして p(x, y | w)

実問題では… 密度関数は複雑なことが多く、 学習モデルに含まれる保証はない アルゴリズムの考案時やその特徴解析時 モデルが真の密度関数を含むと仮定 真の密度関数を含む場合のモデルを 明らかにし、一般的な場合を考察 学習データは有限個 ある程度の解像度までの密度関数 しか分からない

学習データ q(x, y) 情報源 p(x, y | w) 学習モデル p(x, y | w0) 学習結果 似てる?

最尤推定法 損失関数 損失関数を最小にする (最尤推定量) を q(x, y) の推定密度関数とする

事後確率最大化法 p(w) : パラメータ w に関する密度関数 損失関数 損失関数を最小にする を q(x, y) の推定密度関数とする (事後確率最大化推定量) を q(x, y) の推定密度関数とする

ベイズ法 p(w) : パラメータ w に関する密度関数 損失関数 Ln(w) をエネルギー関数とするギブス分布 Zn : ρn(w) がパラメータ集合 Rd 上の 確率密度関数となる正規化定数 β : 逆温度と呼ばれる正の定数

pn(x,y) を q(x, y) の推定密度関数とする ギブス分布の平均で作られる密度関数 pn(x,y) を q(x, y) の推定密度関数とする 固定したパラメータ w 定めない パラメータ w も確率変数として扱う パラメータ w の密度関数 p(w) (事前分布)が必要 学習の目的により設定 (モデル選択、予測精度最大化)

{xi; i = 1, 2, ・・・, n} 例28 R1 上の確率変数から独立な学習データ モデル(平均 a、分散 1 の正規分布) 3つの推定方法がどのくらい 異なる結果となるか比較

最尤推定法 パラメータと関係のない項を省略して、 a に関して下に凸の2次関数なので これより、最尤推定量は

a の事前密度関数 p(a) 事後確率最大化法より 事後確率最大化推定量

ベイズ法の場合 a に関係しない項をまとめて

モデルの尤度を最大化するパラメータを選択 学習法の意味 最尤推定法 データ (xn, yn) がモデル p(x, y | w) から得られる 確率密度(モデルの尤度) モデルの尤度を最大化するパラメータを選択

事後確率最大化法 X, Y, W : 確率変数 同時確率密度関数 推定するモデルの密度関数 このモデルが真の密度関数であれば、 q(x, y) = p(x, y)

(xn, yn) が得られた条件の下での W の密度関数 P(w) : 事前確率密度関数 P(w | xn, yn) : 事後確率密度関数 P(w | xn, yn) を最大にする w を求める

ベイズ法 仮定は事後確率最大化法と同じ β= 1 のとき、 (xn, yn) が得られた条件下 (X, Y) の密度関数 P(x, y | xn, yn) が求める確率密度関数

学習の尺度 これらの方法でなぜ学習が可能になるのか カルバックの擬距離による最適化 最尤推定、事後確率最大化の場合 データ数 n が十分大きいとき、

損失関数の最小化 ≒ K(q || pw) の最小化 ベイズ法の場合 データ数 n が十分大きいとき、最尤推定と同様に、 p(x, y | w) が q(x, y) に近くなる w の近くに 集中する密度関数となる