モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.

Slides:



Advertisements
Similar presentations
コンピュータビジョン特論 第8回対象追跡 2006年11月22日 加藤丈和.
Advertisements

多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
重回帰分析入門 経済データ解析 2009年度.
プログラミング論 I 補間
スペクトル法による数値計算の原理 -一次元線形・非線形移流問題の場合-
重回帰分析入門 経済データ解析 2011年度.
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
4.2 連立非線形方程式 (1)繰返し法による方法
主成分分析                     結城  隆   .
需要の価格弾力性 価格の変化率と需要の変化率の比.
(ラプラス変換の復習) 教科書には相当する章はない
10. 積分 積分・・確率モデルと動学モデルで使われる この章は計算方法の紹介 積分の定義から
高校数学の知識から、 人工知能・機械学習・データ解析へ つなげる、 必要最低限の教科書
市場調査の手順 問題の設定 調査方法の決定 データ収集方法の決定 データ収集の実行 データ分析と解釈 データ入力 データ分析 報告書の作成.
変数選択手法っていろいろあるけど 何を使えばいいの?
Generative Topographic Mapping (GTM) でデータの 可視化・回帰分析・モデルの 逆解析を一緒にやってみた
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
自閉症スペクトラム障害児と定型発達児の識別に関する音響特徴量選択の検討
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
サポートベクターマシン によるパターン認識
 統計学講義 第11回     相関係数、回帰直線    決定係数.
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Songzhu Gao, Tetsuya Takiguchi, Yasuo Ariki (Kobe University) 
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第14章 モデルの結合 修士2年 山川佳洋.
(回帰分析)推計結果の見方(1) 決定係数 回帰式のあてはまりの良さをはかる 回帰式による予測の信頼度を見るひとつの尺度
6. ラプラス変換.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
主成分分析 Principal Component Analysis PCA
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
部分的最小二乗回帰 Partial Least Squares Regression PLS
Genetic Algorithm-based Partial Least Squares GAPLS Genetic Algorithm-based Support Vector Regression GASVR 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
線形判別分析 Linear Discriminant Analysis LDA
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
遺伝的アルゴリズム (GA) を活用した スペクトルの波長選択および時系列 データにおけるプロセス変数かつその時間 遅れ (ダイナミクス) の選択 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
相関分析 2次元データと散布図 共分散 相関係数.
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
重回帰分析入門 経済データ解析 2008年度.
実験計画法 Design of Experiments (DoE)
Locally-Weighted Partial Least Squares LWPLS 局所PLS
重回帰分析入門 (第5章補足) 統計学 2007年度.
パターン認識特論 カーネル主成分分析 和田俊和.
回帰分析入門 経済データ解析 2011年度.
Boruta 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
高校数学の知識から、 人工知能・機械学習・データ解析へ つなげる、 必要最低限の教科書
転移学習 Transfer learning
混合ガウスモデル Gaussian Mixture Model GMM
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
弾力性 労働経済学.
Presentation transcript:

モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌

モデルの微分による非線形モデルの解釈 線形モデル 標準回帰係数などの重みを見ることで、 各説明変数 (記述子・特徴量) の重みを検討できる 標準回帰係数などの重みを見ることで、 各説明変数 (記述子・特徴量) の重みを検討できる 非線形モデル モデルを各説明変数で偏微分 説明変数空間におけるある点 (たとえば、あるサンプル) における 微分係数を計算することで、その点における説明変数ごとの 傾きを計算できる 傾きが大きいということは、その点において値を変化させることで、 目的変数の値の変化も大きい説明変数であるということ

線形モデルの解釈の検討 線形の2クラス分類モデルもしくは回帰モデル y = f(x) f(x) = a1x1 + a2x2 + … + amxm + b (m : 説明変数の数) モデルにおける各説明変数 xi の重み ai を見ることで、 xi を 1 変化させたときに、f(x) がどれくらい変化するかわかる ただし、説明変数の間に相関があるときは xi だけ 1 変化させる ことは難しく、単純に ai を xi の y への寄与の大きさとすることは できないことに注意

非線形モデルでは? 線形モデル 非線形モデル y y y = ai xi + b xi xi 傾き = 重み = ai ?

局所的に傾きを求めよう!→ 微分 y xi 説明変数の値 (たとえばサンプル) ごとの、局所的な傾きは計算できる

非線形モデルの微分 f(x) を xi で偏微分すると、 f(x) が線形モデル、つまり f(x) = a1x1 + a2x2 + … + amxm + b (m : 説明変数の数) のとき、 となり重みと一致 線形モデルでは定数になるが、非線形モデルでは x の関数になる

非線形モデルの例 今回は、サポートベクターマシン関係の3つの非線形モデルを 説明変数 xi で偏微分してみる 2クラス分類:Support Vector Machine (SVM) 詳細:https://datachemeng.com/supportvectormachine/ 回帰分析:Support Vector Regression (SVR) 詳細:https://datachemeng.com/supportvectorregression/ モデルの適用範囲:One-Class SVM (OCSVM) 詳細:https://datachemeng.com/ocsvm/ カーネル関数は、ガウシアンカーネルとする

非線形モデルの式 SVM SVR OCSVM n : サンプル数 y(j) : j 番目のトレーニングサンプルの目的変数の値 x(j) : j 番目のトレーニングサンプルの説明変数ベクトル αj, αj*: SVM, SVR, OCSVMモデリングにより求められる値 b : 定数項

SVMモデルの微分 SVMモデル f(x) を xi で偏微分すると、 カーネル関数 を xi で偏微分する

カーネル関数の微分 より、 よって、

SVMモデルの微分 p.8, p.9 より、

SVMモデルの微分係数によって分かること の値が正 (もしくは負) のとき、 あるサンプル x から 説明変数 xi の値だけを大きくしたとき、 クラス 1 (もしくは-1) の方向に変化するということ の絶対値が 大きいということは、その変化が大きいということ

SVRモデルの微分 SVRモデル f(x) を xi で偏微分すると、 p. 9 より、

SVRモデルの微分係数によって分かること の値が正 (もしくは負) のとき、あるサンプル x から 説明変数 xi の値だけを大きくしたとき、 目的変数の値が正 (もしくは負) の方向に変化するということ の絶対値が 大きいということは、その変化が大きいということ

OCSVMモデルの微分 OCSVMモデル f(x) を xi で偏微分すると、 p. 9 より、

OCSVMモデルの微分係数によって分かること の値が正 (もしくは負) のとき、 あるサンプル x から 説明変数 xi の値だけを大きくしたとき、 f(x) が大きく (もしくは小さく) なり、モデルの適用範囲内 (もしくは適用範囲外) の方向に変化するということ の絶対値が 大きいということは、その変化が大きいということ