モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.

Slides:



Advertisements
Similar presentations
1 小暮研究会2 第1章ベイジアンアルゴリズ ム 2値選択 ベルヌーイ試行 尤度原理 同一性 交換可能性 尤度についてのまとめ 環境情報学部3年 渡邊洋一.
Advertisements

多目的GAに対する パレート最適個体の分布制御 九州大学大学院工学府知能機械システム専攻徳井 宏司.
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
遺伝的アルゴリズムにおける ランドスケープによる問題のクラス分類
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
補章 時系列モデル入門 ー 計量経済学 ー.
重回帰分析入門 経済データ解析 2009年度.
遺伝的アルゴリズム  新川 大貴.
Pattern Recognition and Machine Learning 1.5 決定理論
ベイズ的ロジスティックモデル に関する研究
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
京都大学 化学研究所 バイオインフォマティクスセンター
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
ベイジアンネットワーク概説 3.6 構造の探索アルゴリズム
【小暮研究会2】 「ベイズのアルゴリズム」:序章 【1,2:計量経済分析と統計分析】 【 3:ベイズ定理】
変数選択手法っていろいろあるけど 何を使えばいいの?
Generative Topographic Mapping (GTM) でデータの 可視化・回帰分析・モデルの 逆解析を一緒にやってみた
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
補章 時系列モデル入門 ー 計量経済学 ー.
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
相関分析.
MPIを用いた並列処理 ~GAによるTSPの解法~
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
決定木とランダムフォレスト 和田 俊和.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
Online Decoding of Markov Models under Latency Constraints
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
訓練データとテストデータが 異なる分布に従う場合の学習
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
遺伝的アルゴリズムを用いた 構造物の最適形状探索の プログラムの作成
主成分分析 Principal Component Analysis PCA
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
部分的最小二乗回帰 Partial Least Squares Regression PLS
Genetic Algorithm-based Partial Least Squares GAPLS Genetic Algorithm-based Support Vector Regression GASVR 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第3章補足2 多変量データの記述 統計学基礎 2010年度.
ベイジアンネットワーク概説 Loopy Belief Propagation 茨城大学工学部 佐々木稔
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
ナップサック問題 クマさん人形をめぐる熱いドラマの結末.
線形判別分析 Linear Discriminant Analysis LDA
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
遺伝的アルゴリズム (GA) を活用した スペクトルの波長選択および時系列 データにおけるプロセス変数かつその時間 遅れ (ダイナミクス) の選択 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
HMM音声合成における 変分ベイズ法に基づく線形回帰
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
人工知能特論II 第8回 二宮 崇.
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
実験計画法 Design of Experiments (DoE)
Locally-Weighted Partial Least Squares LWPLS 局所PLS
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
Boruta 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
自己縮小画像と混合ガウス分布モデルを用いた超解像
転移学習 Transfer learning
各種荷重を受ける 中空押出形成材の構造最適化
混合ガウスモデル Gaussian Mixture Model GMM
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
Presentation transcript:

モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌

モデルの逆解析とは? Y (物性・活性など) の値を回帰モデルやクラス分類モデルに入力して、 X (記述子・特徴量・パラメータ・入力変数) の値を推定すること 大きく分けて2つの方法がある 順解析を繰り返す ベイズの定理を利用する

順解析と逆解析 順解析:回帰モデルやクラス分類モデル y = f(X) に、 X を入力して、y の推定値を得る 逆解析:回帰モデルやクラス分類モデル y = f(X) に、 y を入力して、X の推定値を得る 1変数(y) → 多変数(X) なので一般的には解析解が得られない

モデルの逆解析のやり方 順解析を繰り返し、目標の y になる X の値を選択する 全通りの X の候補を用いる (グリッドサーチ) 遺伝的アルゴリズム (Genetic Algorithm, GA) などの最適化手法を 用いる ベイズの定理を利用する

全通りの X の候補を用いる (グリッドサーチ) X の変数それぞれに候補を設定し、それらのすべての 組み合わせを X のデータとする X のデータのうち、モデルの適用範囲 (Applicability Domain, AD) の 中のサンプルのみ回帰モデルやクラス分類モデルに入力して、 y の値を推定する https://datachemeng.com/applicabilitydomain/ y の推定値の中で、目標の y を満たす X 変数の値の 組み合わせのみ選択する 変数の数や、候補の数が多くなると、すべての組み合わせの数 (グリッドサーチする数) が膨大になってしまう 20 変数で、それぞれ 10 候補とすると、1020 通り 設定した候補の中からしか探索されないので注意

ランダムに X の値を生成する X の変数それぞれに上限 (最大値) と下限 (最小値) を設定し、 それらの間の中で、一様乱数で X のデータを生成する 生成された X のデータのうち、AD中のサンプルのみを回帰モデルや クラス分類モデルに入力し、y の値を推定する y の推定値の中で、目標の y を満たす X 変数の値の 組み合わせのみ選択する ランダムに生成する X のデータ (サンプル) の数を、できるだけ多く したほうがよい

最適化手法を用いる X のデータを回帰モデルやクラス分類モデルに入力して推定された y の値を目的関数とする 目的関数が最大 (もしくは最小) となるように、GA などの 最適化手法により X の変数の値の組み合わせを最適化する AD 内のサンプルのみ考慮 y の最大化、最小化ではなく、ある範囲に入れたい場合でも 対応可能 解に初期値依存性があるため、最適化計算を何回かするとよい

ベイズの定理を利用する X, y, 回帰モデル・クラス分類モデルの出力が確率分布で 与えられるときに有効 回帰分析 ベイズの定理 目標の y の値が得られる確率の高い、X の値の範囲が得られる [1] C. M. Bishop, Pattern Recognition and Machine Learning, Springer, Heidelberg 2006.

ベイズの定理を利用した逆解析 回帰モデル・クラス分類モデル:X が与えられたときの、y の確率分布 (事後分布) p(y|X) 求めたいもの:y が与えられたときの、X の確率分布 (事後分布) p(X|y) ベイズの定理 p(y):y の事前確率・・・正規分布と仮定 p(X):X の事前確率 ・・・Gaussian mixture models [1] などで計算 AD は自動的に考慮される [1] C. M. Bishop, Pattern Recognition and Machine Learning, Springer, Heidelberg 2006.