第11章 サンプリング法 博士課程1年 原 祐輔.

Slides:



Advertisements
Similar presentations
1 小暮研究会2 第1章ベイジアンアルゴリズ ム 2値選択 ベルヌーイ試行 尤度原理 同一性 交換可能性 尤度についてのまとめ 環境情報学部3年 渡邊洋一.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
数理統計学 西 山. 前回の問題 ある高校の 1 年生からランダムに 5 名を選 んで 50 メートル走の記録をとると、 、 、 、 、 だった。学年全体の平均を推定しなさい. 信頼係数は90%とする。 当分、 は元の分散と一致 していると仮定する.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
看護学部 中澤 港 統計学第5回 看護学部 中澤 港
コンピュータビジョン特論 第8回対象追跡 2006年11月22日 加藤丈和.
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
Pattern Recognition and Machine Learning 1.5 決定理論
マルコフ連鎖モンテカルロ法がひらく確率の世界
Q q 情報セキュリティ 第6回:2005年5月20日(金) q q.
スペクトル法による数値計算の原理 -一次元線形・非線形移流問題の場合-
Bassモデルにおける 最尤法を用いたパラメータ推定
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
時空間データからのオブジェクトベース知識発見
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
ベイズ的ロジスティックモデル に関する研究
シミュレーション物理7 乱数.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
クラスター変分法と確率的情報処理 --Belief Propagation と画像処理アルゴリズム--
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
非線形方程式の近似解 (2分法,はさみうち法,Newton-Raphson法)
(ラプラス変換の復習) 教科書には相当する章はない
10. 積分 積分・・確率モデルと動学モデルで使われる この章は計算方法の紹介 積分の定義から
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 連立方程式モデル ー 計量経済学 ー.
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
第9章 混合モデルとEM 修士2年 北川直樹.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日
第14章 モデルの結合 修士2年 山川佳洋.
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
6. ラプラス変換.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
分子生物情報学(2) 配列のマルチプルアライメント法
法数学勉強会 2016/06/15 京都大学(医)統計遺伝学分野 山田 亮
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
様々な情報源(4章).
ベイジアンネットワーク概説 Loopy Belief Propagation 茨城大学工学部 佐々木稔
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
「アルゴリズムとプログラム」 結果を統計的に正しく判断 三学期 第7回 袖高の生徒ってどうよ調査(3)
ベイズ最適化 Bayesian Optimization BO
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
経営学研究科 M1年 学籍番号 speedster
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
川崎浩司:沿岸域工学,コロナ社 第4章(pp.58-68)
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
解析学 ー第9〜10回ー 2019/5/12.
人工知能特論II 第8回 二宮 崇.
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
ポッツスピン型隠れ変数による画像領域分割
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
確率と統計2007(最終回) 平成20年1月17日(木) 東京工科大学 亀田弘之.
2008年6月5日 非線形方程式の近似解 2分法,はさみうち法,Newton-Raphson法)
パターン認識特論 カーネル主成分分析 和田俊和.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
情報生命科学特別講義III (3)たたみ込みとハッシュに 基づくマッチング
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

第11章 サンプリング法 博士課程1年 原 祐輔

11章の内容 基本的なサンプリングアルゴリズム マルコフ連鎖モンテカルロ ギブスサンプリング スライスサンプリング 棄却サンプリング・適応的棄却サンプリング 重点サンプリング SIR サンプリングとEMアルゴリズム データ拡大アルゴリズム マルコフ連鎖モンテカルロ Metropolis-Hastingsアルゴリズム ギブスサンプリング スライスサンプリング ハイブリッドモンテカルロアルゴリズム

本当の目次 疑似乱数の与太話 not MCMC サンプリング MCMCサンプリング 逆関数法 棄却サンプリング 適応的棄却サンプリング 重点サンプリング SIR MCMCサンプリング ギブスサンプリング MH法

ありがちな話 「適当に乱数発生させて推定すればいいよね」 「そこは乱数でシミュレーション積分して…」 「あとは計算機がやってくれるから…」 だが,待ってほしい 適切な分布からサンプリングするのは難しいという声が聞こえないだろうか 乱数によるサンプリングが単純ではないという声に謙虚に耳を傾けるべきではないだろうか

ということで PRML11章の内容を踏襲しつつ,順番をちょっと 入れ替えたりしてサンプリングについて整理する 特にMCMCでないサンプリングとMCMC的サンプリングを理解することに重点 「適当に乱数発生させて~」ということがどれだけ難しいか,またそのサンプリングの使い方の難しさをきっちり体感する 理論的な展開は今回はある程度省く ギブスサンプラーやMetropolis-Hastingsが   なぜあれほどに賞賛され,幅広い分野で使われているのかを理解することが目的

全体像を俯瞰 マルコフ連鎖モンテカルロ 逆関数法 メトロポリス・ヘイスティングス法 棄却サンプリング 適応的棄却サンプリング ギブス・ メトロポリス法 適応的棄却サンプリング 重点サンプリング SIR スライスサンプリング データ拡大サンプリング

その前に乱数(疑似乱数)について 乱数を発生させるのはそれほど簡単か? とりあえず1~10の間で10個乱数を発生させてみてください たぶん無理 計算機はどのように乱数を発生させているのか? 合同乗算法…使ってはいけないと言われ続けてきた トーズワース法・シフトレジスター法…推奨されてきた メルセンヌ・ツイスター法…いまならこれ!

メルセンヌ・ツイスター法 1996年から1998年に松本眞と西村拓士によって 開発された擬似乱数生成器 219937-1 という長い周期 1996年から1998年に松本眞と西村拓士によって 開発された擬似乱数生成器 219937-1 という長い周期 あらゆる擬似乱数生成法の中でもっとも速い(当時) 開発当初は Primitive Twisted Generalized Feedback Shift Register Sequence という名前であったが,クヌースに名前が長すぎると言われたため現在の名前に変更された。 Mersenne Twister の MT には、開発者の名前  「まこと」と「たくし」のイニシャルという意味もこめられている。    デフォルトの乱数がメルセンヌ・ツイスタ

いまからサンプリング法の説明 とにかく目的を見失わないこと 目的は「ある想定した分布」に従う乱数を 発生させること(サンプリングすること) 目的は「ある想定した分布」に従う乱数を 発生させること(サンプリングすること) それが複雑で一般的な分布でもうまくいくように改善されていったり,サンプリング速度が速く効率的になるように改善されていったりしている とにかく目的は欲しい分布からサンプリングすること

逆関数法 まずは単純な逆関数法から 一様分布からサンプリングする(乱数を発生させる)ことができることが前提(MT法などで) not MCMC (1) 逆関数法 まずは単純な逆関数法から 一様分布からサンプリングする(乱数を発生させる)ことができることが前提(MT法などで) 求めたい分布の確率密度関数の逆関数が簡単に書き下すことができる場合,次のフローでうまくいく. 乱数発生 変換式にぶちこむ ガツンと得られる 一様乱数 求めたい分布の不定積分の 逆関数 求めたい分布から サンプリングした乱数

逆関数法 たとえば指数分布からサンプリングしたいが直接できないとき not MCMC (1) 一様乱数 求めたい分布の不定積分の 逆関数 求めたい分布から サンプリングした乱数 たとえば指数分布からサンプリングしたいが直接できないとき よって,次の逆関数が得られる ガツンと! 乱数発生 [0,1]の一様乱数zを 100000個発生 にぶち込む

棄却サンプリング 逆関数が求められない比較的複雑な分布だってある not MCMC (2) 棄却サンプリング 逆関数が求められない比較的複雑な分布だってある やや複雑な分布p(z)からサンプリングしたいが,直接p(z)からサンプリングするのは困難であるとする 任意のzが与えられたとき,正規化定数Zを除いたp(z)を求めることは容易であるとしよう(これはよくあること) ここで,容易にサンプリングできる提案分布q(z)を考える これがミソ

分布p(z)をkq(z)が覆うような定数kを考える not MCMC (2) 棄却サンプリング p(z)を提案分布 で覆う 乱数発生 乱数発生 ならz0は 棄却 分布p(z)をkq(z)が覆うような定数kを考える 提案分布 区間[0,kq(z0)]で 一様分布から u0発生 ならz0はp(z)に従う サンプリングとして ガツンと得られる

適応的棄却サンプリング 棄却サンプリングを適用したい多くの場合,適切な提案分布q(z)を解析的に決定することは難しい not MCMC (3) 適応的棄却サンプリング 棄却サンプリングを適用したい多くの場合,適切な提案分布q(z)を解析的に決定することは難しい 別のアプローチとして,分布p(z)の観測値に基づいてその場で包絡関数を構築する方法 初期集合を準備 乱数発生 乱数発生 初期集合による包絡 分布q(z)でp(z)を覆う ならz4は 棄却 包絡分布 区間[0,q(z4)]で 一様分布から u0発生 だがz4を包絡分布の 接点に生かす ならz4はp(z)に従う サンプリングとして ガツンと得られる z4

ここまでのまとめ 逆関数法 棄却サンプリング 適応的棄却サンプリング 解析的に正しいし,無駄がないというメリット not MCMC ここまでのまとめ 逆関数法 解析的に正しいし,無駄がないというメリット 複雑な分布だと逆関数を求めるのはまず不可能というデメリット 棄却サンプリング 比較的複雑な分布に対してもサンプリングできるメリット 適切な提案分布,定数kを選ぶことが難しい 結果としてせっかくサンプリングしても大量に棄却するので無駄 適応的棄却サンプリング 包絡関数を提案分布とすることで棄却が少なくなるメリット 棄却した値も新たな包絡線の接点として取り込む再活用 接線の計算負荷.また多次元で多峰性,するどいピークをもつ分布だとまず対応できないデメリット

重点サンプリング 分布p(z)からサンプリングしたいのではなくて, 分布p(z)の期待値を計算したいことが目的のときもある not MCMC (4) 重点サンプリング 分布p(z)からサンプリングしたいのではなくて,    分布p(z)の期待値を計算したいことが目的のときもある しかし,p(z)から直接サンプリングするのは現実的ではないので,棄却サンプリング的に提案分布を利用したい 重要度重みと呼び,求めたいものとは異なった分布からサンプリングするバイアスを補正する.棄却サンプリングと異なり,すべてのサンプルを保持することに注意! たとえば対数正規分布LN(1.1,0.6)の平均を求めたいとき,zを一様分布[0,60]からサンプリングし,その値を用いてp(z)を求める.またq(z)=1/60であり,f(z)=zなので,p(z)*60*zによってΣの中身が求まり,期待値が計算できる z4

SIR(sampling-importance-resampling) not MCMC (5) SIR(sampling-importance-resampling) 棄却サンプリングのうまいq(z)とkの選び方を発見することは現実的ではない そこで,重点サンプリングの重要度重みを有効活用して なんかうまいサンプリング方法はないか?→SIR 第1段階で提案分布からL個のサンプルzを抽出する 第2段階で次式によって重みwを計算する 最後にzから重いwで与えられる確率に従って          リサンプリングする これはL→∞では分布は正確に従うことが証明されている

SIR(sampling-importance-resampling) not MCMC (5) SIR(sampling-importance-resampling) p(z)から重みw を計算 リサンプリング ガツンと得られる 乱数発生 提案分布 からL個 サンプリング zを重みwに 対応する確率 で再抽出 m個のサンプルが 得られる 各lに対応した 重みwを計算 ex) 提案分布:[0,50]の一様分布でp(z)がN(20,5)とする 17.08 2.745 38.93 38.40 21.34 41.04 20.52 22.17 21.15 13.30 6.730e-02 2.069e-04 6.136e-05 9.096e-05 7.694e-02 1.133e-05 7.935e-02 7.259e-02 7.770e-02 3.254e-02 1.654e-01 5.087e-04 1.508e-04 2.235e-04 1.891e-01 2.785e-05 1.950e-01 1.784e-01 1.910e-01 7.999e-02 17.08 21.15 17.08 21.34 21.34 21.15 20.52 22.17 21.15 17.08 z = p(z) = w = z *= ブートストラップ法 みたいな感じ?

サンプリングとEMアルゴリズム モンテカルロ法はベイズ的枠組みだけじゃなく,最尤解を求める頻度主義的なパラダイムにおいても使える! not MCMC (6)? サンプリングとEMアルゴリズム モンテカルロ法はベイズ的枠組みだけじゃなく,最尤解を求める頻度主義的なパラダイムにおいても使える! 特にEMアルゴリズムにおいてEステップを解析的に実行できないモデルにおいて,サンプリング法がEステップを近似的に実行することが可能 これをモンテカルロEMアルゴリズムと呼ぶ また,完全なベイズアプローチに移った        データ拡大アルゴリズムと呼ばれる             Iステップ(imputation step) (Eステップに類似)と                 Pステップ(posterior step) (Mステップに類似)を                  交互に行うアルゴリズムも存在する こいつはほんとはMCMCの仲間

ここまでのまとめ(2) 重点サンプリング SIR モンテカルロEMアルゴリズム データ拡大法 提案分布との重み付けで期待値を近似的に計算する not MCMC ここまでのまとめ(2) 重点サンプリング 提案分布との重み付けで期待値を近似的に計算する 分布全体からサンプリングするものではない SIR 棄却サンプリングと重点サンプリングの合わせ技 あくまで最初のサンプリングからのリサンプリングなので,反復回数が少ないと偏る…が,∞では近似できることは証明されてる モンテカルロEMアルゴリズム サンプリングをEステップに代えて データ拡大法 EMアルゴリズムのようにIステップとPステップでパラメータθを事後分布からサンプリング

MCMCの世界へ

頻度主義とベイズの世界観の違い 最短経路の山登りかそれとも酔っぱらいの回遊か 最尤法では山頂にのみ関心があるが MCMCは山全体の形に興味がある

なぜMCMCはモテ系なのか? 棄却サンプリングやSIR法では効率良いサンプリングのためにサンプラー(提案分布)を 上手に選んでやる必要がある 非常に複雑な分布(非線形モデル)や大量のパラメータがある(次元が多い)とき,  適切にサンプラーを選ぶのは難しい.    ときに不可能 MCMCなら定常分布に収束するという性質を持っており,初期値に依存せず,いい感じのサンプリングが楽に行える モテ系というよりマッチョ系

全体像を俯瞰(再掲) マルコフ連鎖モンテカルロ 逆関数法 メトロポリス・ヘイスティングス法 棄却サンプリング 適応的棄却サンプリング ギブス・ サンプリング メトロポリス法 適応的棄却サンプリング 重点サンプリング SIR スライスサンプリング データ拡大サンプリング

ギブス・サンプリング ギブス・サンプラーは 「条件付き分布からのサンプリング」 MCMC (1) ギブス・サンプリング ギブス・サンプラーは  「条件付き分布からのサンプリング」 サンプリングしたいxをx={x1,…,xN}と書こう.毎回,ひとつの成分xiを選び,その値を忘れて新しく取り直すとする.その新しいxiの値をそれ以外の成分を固定した条件付き確率P(xi|x1,…,xi-1,xi+1,…,xN)で選ぶ. これぞギブスサンプラーだ!

ギブス・サンプリング MCMC (1) の初期値 を与える に対して以下を行う をサンプリングする をサンプリングする …        の初期値        を与える      に対して以下を行う             をサンプリングする             をサンプリングする     …             をサンプリングする 収束したと判定されるまでステップ2を繰り返す 一つ前の期の自分以外に依存しているのでマルコフ連鎖の一種である

ギブス・サンプリング たとえば二変量正規分布の場合 (本当はもっと高次元がMCMCの腕の見せ所であるが…) ここで,一方を固定したときの条件付き密度は 単なる正規分布からのサンプリングになったぞー!→余裕 条件付き分布からのサンプリングが簡単な場合,魅力的 条件付き分布が適切に書き下せる場合がギブスサンプラーの使いどころ 条件付き分布からのサンプリングが簡単でない場合→MH

少ないdraw数で簡単にdrawできない分布からも MCMC (1) ギブス・サンプリング たとえば二変量正規分布の場合 Rの多変量正規分布の乱数発生関数から2000個 ギブスサンプラー(3000draw 1000はburn-in) たった3000drawでも遜色ない! ということは他の分布においても 少ないdraw数で簡単にdrawできない分布からも サンプリングすることが可能!

MCMC (1) ギブス・サンプラーのイメージ 初期値

メトロポリス・ヘイスティングス法 メトロポリス・ヘイスティングス法は 「マルコフ連鎖的棄却サンプリング」 MCMC (2) メトロポリス・ヘイスティングス法 メトロポリス・ヘイスティングス法は  「マルコフ連鎖的棄却サンプリング」 棄却サンプリングと同様,提案分布q(x)からサンプリングすることを考える.ここで重点サンプリングと同様に,重み付き分布の考え方を使って,事後分布を重要度重みで置き換える. そして重要度重み(インポータンス比)の比(ここがマルコフ的)と一様乱数を比べて採択するかどうかを選ぶ 採択されなかった場合,単純に棄却してやり直すのではなくt-1期をそのまま用いる. これぞMH法だ!

メトロポリス・ヘイスティングス法 MCMC (2) 初期値 を決め,t=1とおく 現在,  であるとき,次の値  の候補  を提案分布       から発生させ   と定義する (0,1)上の一様乱数uを発生させて, tをt+1として,2.に戻る

MCMC (3) スライス・サンプリング むり

ここまでのまとめ(3) ギブスサンプリング メトロポリスヘイスティングス法 スライスサンプリング 条件付き確率が書き下せればかなり効率良い MCMC ここまでのまとめ(3) ギブスサンプリング 条件付き確率が書き下せればかなり効率良い 1つ1つ固定していったうえでのサンプリング メトロポリスヘイスティングス法 重点サンプリングの重み付け比を用いて事後分布に近似 計算に時間がかかる(提案分布の選び方がやはり重要) スライスサンプリング むり

まとめ not MCMCなサンプリングからみていくことでMCMCなサンプリングの理解も深まったはず 使い道が重要