ベイズ最適化 Bayesian Optimization BO

Slides:



Advertisements
Similar presentations
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Advertisements

Lesson 9. 頻度と分布 §D. 正規分布. 正規分布 Normal Distribution 最もよく使われる連続確率分布 釣り鐘形の曲線 -∽から+ ∽までの値を取る 平均 mean =中央値 median =最頻値 mode 曲線より下の面積は1に等しい.
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
補章 時系列モデル入門 ー 計量経済学 ー.
Bassモデルにおける 最尤法を用いたパラメータ推定
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
ベイズ的ロジスティックモデル に関する研究
第2章補足Ⅱ 2項分布と正規分布についての補足
3章 Analysing averages and frequencies (前半 p )
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
統計解析 第10回 12章 標本抽出、13章 標本分布.
計測工学 -測定の誤差と精度2- 計測工学 2009年5月17日 Ⅰ限目.
寺尾 敦 青山学院大学社会情報学部 エクセルでの正規分布の グラフの描き方 寺尾 敦 青山学院大学社会情報学部
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
寺尾 敦 青山学院大学社会情報学部 エクセルでの正規分布の グラフの描き方 寺尾 敦 青山学院大学社会情報学部
Generative Topographic Mapping (GTM) でデータの 可視化・回帰分析・モデルの 逆解析を一緒にやってみた
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
補章 時系列モデル入門 ー 計量経済学 ー.
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
応用数理工学特論 期末発表 西口健太郎 渡邉崇充
相関分析.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
正規分布確率密度関数.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
寺尾 敦 青山学院大学社会情報学部 エクセルでの正規分布の グラフの描き方 寺尾 敦 青山学院大学社会情報学部
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
主成分分析 Principal Component Analysis PCA
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
市場調査の手順 問題の設定 調査方法の決定 データ収集方法の決定 データ収集の実行 データ分析と解釈 報告書の作成 標本デザイン、データ収集
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
部分的最小二乗回帰 Partial Least Squares Regression PLS
ベイズ・アプローチによる グラフィカル・テスト理論
Genetic Algorithm-based Partial Least Squares GAPLS Genetic Algorithm-based Support Vector Regression GASVR 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
適応的近傍を持つ シミュレーテッドアニーリングの性能
ex-8. 平均と標準偏差 (Excel 実習シリーズ)
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
線形判別分析 Linear Discriminant Analysis LDA
第3章 線形回帰モデル 修士1年 山田 孝太郎.
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
遺伝的アルゴリズム (GA) を活用した スペクトルの波長選択および時系列 データにおけるプロセス変数かつその時間 遅れ (ダイナミクス) の選択 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
HMM音声合成における 変分ベイズ法に基づく線形回帰
ポッツスピン型隠れ変数による画像領域分割
確率と統計2007(最終回) 平成20年1月17日(木) 東京工科大学 亀田弘之.
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
ex-8. 平均と標準偏差 (Excel を演習で学ぶシリーズ)
実験計画法 Design of Experiments (DoE)
Locally-Weighted Partial Least Squares LWPLS 局所PLS
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
統計現象 高嶋 隆一 6/26/2019.
Boruta 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
転移学習 Transfer learning
混合ガウスモデル Gaussian Mixture Model GMM
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
Presentation transcript:

ベイズ最適化 Bayesian Optimization BO 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌

ベイズ最適化 (BO) とは? ガウス過程による回帰により説明変数と目的変数との間で 回帰モデルを構築する ガウス過程による回帰により説明変数と目的変数との間で 回帰モデルを構築する ガウス過程による回帰の詳細はこちら https://datachemeng.com/gaussianprocessregression/ 推定値とその分散を利用して、目的変数の値がより大きくなる (小さくなる) 可能性の高いサンプル候補を見つける 実験計画法やハイパーパラメータの最適化に活用できる 実験計画法の詳細はこちら https://datachemeng.com/designofexperimentscodes/

ベイズ最適化のための準備 ガウス過程についてはこちら https://datachemeng.com/gaussianprocessregression/ 実験計画法についてはこちら https://datachemeng.com/designofexperimentscodes/

ベイズ最適化をするときの前提 説明変数と目的変数のあるサンプルがいくつか存在する たとえば、実験条件 (説明変数) をいくつか変えて実験し、 収率 (目的変数) を測定した結果がある 目的変数の値がなるべく大きくなるような説明変数の値の候補をしりたい たとえば、収率がなるべく高くなるような実験条件をしりたい 目的変数の値をなるべく小さくしたいときは、 目的変数に-1をかければよい

ガウス過程による回帰 説明変数と目的変数のあるサンプルを用いて、ガウス過程による回帰 により回帰モデルを構築する

回帰モデルを用いた探索 回帰モデルがあれば、 仮想的なサンプルとして説明変数の値をいろいろ変えてモデルに入力 目的変数の推定値が最大になる説明変数の値を選択 ということができる ただ、この目的変数の推定値を最大化する方法では、 既存のサンプルに近いところにあるものが、新しいサンプル候補として 選ばれやすい 新しいサンプル候補の選択 → 実際に実験して目的変数(収率) を 測定、を繰り返したとき、同じようなサンプル候補ばかりになってしまう 面白みがない

獲得関数 ベイズ最適化では、獲得関数が最大になる説明変数の値を選択 獲得関数の計算には、目的変数の推定値だけでなく 推定値のばらつきも利用 獲得関数の計算には、目的変数の推定値だけでなく 推定値のばらつきも利用 獲得関数 (acquisition function) Probability of Improvement (PI) Expected Improvement (EI) Mutual Information (MI) など

Probability of Improvement (PI) 既存のサンプルにおける目的変数の最大値より大きくなる確率 あるサンプル候補 xnew(i) のPIの値を PI(xnew(i)) とする 正規分布を考える 平均:m(xnew(i))・・・ガウス過程による xnew(i) の推定値 分散:σ2(xnew(i))・・・ガウス過程による xnew(i) の推定値 の分散 y

PIの図解 PI(xnew(i)) は、既存のサンプルにおける目的変数の最大値 ymax から 無限大まで正規分布を積分した値 (下の斜線の面積) 実際には、 ymax ではなく、 ymax + ε m(xnew(i)) = ymax のとき PI(xnew(i)) = 0.5 で最大になりうるため たとえば、 ε = 0.01×(既存のサンプルの目的変数の標準偏差) ymax y

PIの式

Expected Improvement (EI) 既存のサンプルにおける目的変数の最大値の更新幅の期待値

Mutual Information (MI) 推定値+“ばらつき”、が最大になるように選択し、 “ばらつき” を 実験回数ごとに更新していく t 回目の実験パラメータの候補を選択するとき ただし、 文献では、 E. Contal, V. Perchet, N. Vayatis, “Gaussian Process Optimization with Mutual Information”, arXiv:1311.4825v3 https://arxiv.org/abs/1311.4825v3

適応的な実験計画法 PI もしくは EI もしくは MI の値が最大となるサンプル候補で、実験する 実験したら、そのサンプルを既存のサンプルに追加し、再度 ガウス過程による回帰を行う ①② を繰り返すことで、目的変数の値を大きくすることを目指す

どうやって実際にベイズ最適化するか? ベイズ最適化をするための MATLAB や Python のプログラムを 作りました! https://github.com/hkaneko1985/design_of_experiments

サンプルの候補が多いときは? 基本的には、グリッドサーチで新しいサンプル候補を探索する 説明変数の数が3、各説明変数で値の候補が 10 あるとすると、 サンプル候補の数は、103 = 1,000 サンプル候補の数が多いときは? 説明変数の数が10、各説明変数で値の候補が 10 あるとすると、 サンプル候補の数は、1010 ① ランダムにサンプリングする たとえば、乱数で1,000,000サンプル候補を発生させる ② 遺伝的アルゴリズムなどの最適化手法を使う